日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

并行智能體:洞察復(fù)雜系統(tǒng)的 14 種并發(fā)設(shè)計(jì)模式

穎脈Imgtec ? 2025-12-02 15:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI 智能體的世界中,速度、質(zhì)量和可靠性 不僅僅是特性,它們是必備條件。一個單一、順序執(zhí)行的智能體可能速度慢、容易出錯,并且解決問題的能力有限。解決方案是采用并行思維:設(shè)計(jì)一個系統(tǒng),讓多個智能體、流程或任務(wù)可以同時執(zhí)行,以實(shí)現(xiàn)共同的目標(biāo)。

85d007de-cf4d-11f0-8ce9-92fbcf53809c.jpg

大規(guī)模的智能體系統(tǒng)通常受到兩個主要因素的瓶頸:

  • I/O 延遲:等待網(wǎng)絡(luò)、數(shù)據(jù)庫和外部 API 調(diào)用。
  • 質(zhì)量與可靠性:單一的推理路徑可能導(dǎo)致次優(yōu)或錯誤的輸出。

智能體并行化通過重疊等待時間、探索多種解決方案路徑和創(chuàng)建彈性、自校正系統(tǒng)來正面應(yīng)對這些挑戰(zhàn)。


核心能力1:并行工具使用

并行工具使用是構(gòu)建高性能、低延遲智能體系統(tǒng)的核心模式之一。它解決的主要問題是 I/O 延遲,這是大多數(shù)依賴外部服務(wù)的 AI 應(yīng)用的性能瓶頸。

該模式的核心在于允許 大型語言模型 (LLM) 在單次調(diào)用中識別并規(guī)劃多個獨(dú)立的工具調(diào)用,然后由執(zhí)行器同時啟動這些調(diào)用。

  • 傳統(tǒng)(順序)模式:LLM 規(guī)劃工具 A → 等待 A 執(zhí)行完畢 → LLM 規(guī)劃工具 B → 等待 B 執(zhí)行完畢。
  • 并行模式:LLM 規(guī)劃 工具 A 和 工具 B → 同時執(zhí)行 A 和 B → 收集所有結(jié)果。

LLM 通過 工具綁定(Tool Binding) 機(jī)制,接收到所有可用工具的 Schema(即函數(shù)簽名和 Docstring)。當(dāng)用戶查詢(例如:“告訴我蘋果的股價和最近的新聞”)需要多個工具時,LLM 會在一次 AIMessage 響應(yīng)中生成一個包含多個 tool_calls 對象的列表。這是并行執(zhí)行的信號

并行執(zhí)行帶來的性能提升主要體現(xiàn)在 I/O 耗時的重疊上。如果兩個工具調(diào)用都需要 3 秒的網(wǎng)絡(luò)等待時間,順序執(zhí)行的總耗時為 6 秒(忽略中間 LLM 的思考時間),而并行執(zhí)行的總耗時將接近 3 秒。


核心能力2:并行假設(shè)生成

并行假設(shè)生成(或稱“分支思維”)是一種高級的智能體并行模式,旨在通過探索多條推理路徑來提高 AI 系統(tǒng)的決策質(zhì)量、魯棒性和創(chuàng)造力。它將單一、線性的思維過程轉(zhuǎn)化為多維度、并發(fā)的戰(zhàn)略探索。

此模式的價值在于從執(zhí)行層面轉(zhuǎn)向戰(zhàn)略層面的優(yōu)化:

1. 策略探索:智能體首先充當(dāng)“規(guī)劃者”(Planner),根據(jù)初始問題生成 個不同的、獨(dú)立的潛在解決方案或視角(即假設(shè))。

2. 并行深化:個獨(dú)立的“工作者”(Worker)智能體同時被激活,每個工作者負(fù)責(zé)深化其中一個假設(shè),獨(dú)立生成一個完整的輸出(例如,基于某一營銷角度生成口號)。

3. 收斂與優(yōu)化:所有并行結(jié)果被收集,然后由一個“裁判”(Judge)智能體進(jìn)行批判性評估和綜合,最終選出或合成最優(yōu)解。


核心能力3:并行評估與反思

并行評估與多批評家反思是一種高級智能體架構(gòu)模式,專注于在高風(fēng)險、高標(biāo)準(zhǔn)的生產(chǎn)環(huán)境中實(shí)現(xiàn)穩(wěn)健、全面和高效的質(zhì)量保證(QA)和 AI 治理。

此模式的核心在于用一組專業(yè)化智能體取代單一、通用的評估器,并讓它們同時工作。

1. 專業(yè)化(Specialization):每個“批評家”(Critic Agent)都被賦予一個特定的專業(yè)領(lǐng)域和一套嚴(yán)格的評估標(biāo)準(zhǔn)。例如:

  • 事實(shí)核查員(Fact-Checker):專注于驗(yàn)證內(nèi)容中陳述的客觀準(zhǔn)確性,可調(diào)用外部搜索工具。
  • 品牌聲音分析師(Brand Voice Analyst):專注于評估內(nèi)容的語氣、風(fēng)格和對品牌指南的遵循情況。
  • 風(fēng)險評估員(Risk Assessor):專注于識別潛在的法律、倫理或聲譽(yù)風(fēng)險。

2. 并行化 (Parallelism):通過 LangGraph 的 Fan-Out (分散) 機(jī)制,將同一份內(nèi)容同時發(fā)送給所有批評家。所有批評家同時獨(dú)立運(yùn)行,以墻鐘時間(Wall-Clock Time) 最長的任務(wù)為準(zhǔn)完成評估階段。

3. 聚合與反思(Aggregation & Reflection): 最后,一個中心化的 總編輯(Chief Editor) 智能體接收所有批評家提供的結(jié)構(gòu)化反饋(通過 Pydantic 模型確保格式統(tǒng)一),進(jìn)行綜合判斷、制定最終決策,并輸出清晰的修訂指令。


核心能力4:推測性執(zhí)行與預(yù)取

推測性執(zhí)行與預(yù)取是一種旨在隱藏延遲 (Latency Hiding)、優(yōu)化用戶體驗(yàn)的高級并行模式。其核心目標(biāo)是讓 AI 智能體的交互感更加即時和主動,將系統(tǒng)的響應(yīng)性提升至超響應(yīng)級別。

該模式利用了智能體工作流中固有的時間差,通過提前行動來抵消耗時的 I/O 操作。

1. 時序分析:典型的智能體工作流包含兩個連續(xù)的耗時階段:

  • 思考 (Thinking):LLM 推理時間(例如 3-5 秒)。
  • 行動 (Acting):工具調(diào)用(I/O 延遲,例如數(shù)據(jù)庫查詢 3 秒)。
  • 順序總耗時:思考時間 + 行動時間。

2. 推測與并行:系統(tǒng)在接收到用戶輸入后,無需等待 LLM 完成推理,即可基于上下文(例如,在客服場景中是用戶 ID)推測智能體最可能需要的工具調(diào)用(例如,get_order_history(user_id))。


核心能力5:分層智能體團(tuán)隊(duì)

分層智能體團(tuán)隊(duì),即**“指揮官-工作者”(Orchestrator-Worker)** 模型,是構(gòu)建能夠處理復(fù)雜、多領(lǐng)域任務(wù)的可擴(kuò)展智能體系統(tǒng)的基石。它模仿了人類組織中管理層分解任務(wù)、專家團(tuán)隊(duì)并行執(zhí)行的模式,以同時優(yōu)化系統(tǒng)的質(zhì)量、準(zhǔn)確性和速度。

1. 指揮官 (Orchestrator):

職責(zé):接收復(fù)雜的初始請求(例如,“撰寫投資報(bào)告”)。其核心價值在于任務(wù)分解,即將復(fù)雜請求拆解為一組簡單、清晰、可并行執(zhí)行的子任務(wù)(例如,"獲取財(cái)務(wù)數(shù)據(jù)" 和 "分析市場新聞")。

工具:通常不直接使用 I/O 工具,而是使用 Pydantic 結(jié)構(gòu)化輸出來定義和傳遞任務(wù)。

2. 工作者 (Worker):

職責(zé):每個工作者都是一個高度專業(yè)化的智能體,只負(fù)責(zé)一個子任務(wù)(例如,F(xiàn)inancial Analyst 只負(fù)責(zé)財(cái)務(wù)數(shù)據(jù))。它們被賦予專用的工具和聚焦的提示詞。

工具:直接使用 I/O 工具(如 yfinance 或 Tavily)高效執(zhí)行其專業(yè)任務(wù)。

3. 合成 (Synthesis):

工作者并行完成后,指揮官(或另一個專門的合成節(jié)點(diǎn))將所有結(jié)構(gòu)化結(jié)果匯集,并將其整合為一個連貫、統(tǒng)一的最終產(chǎn)品。

分層團(tuán)隊(duì)帶來的優(yōu)勢是復(fù)合的,尤其在質(zhì)量方面超越了單體智能體。單體智能體(Monolithic Agent)在面對多步驟任務(wù)時,容易在工具調(diào)用、數(shù)據(jù)處理和最終合成之間產(chǎn)生認(rèn)知負(fù)荷,導(dǎo)致輸出質(zhì)量不穩(wěn)定。專業(yè)工作者(Specialist Worker)由于提示詞和工具的限制,任務(wù)焦點(diǎn)更集中,其輸出(如結(jié)構(gòu)化的 FinancialData)更準(zhǔn)確可靠。


核心能力6:競爭性智能體集成

競爭性智能體集成模式通過多樣化生成和裁判評估來解決復(fù)雜或高風(fēng)險任務(wù)的魯棒性和質(zhì)量問題。它模仿了人類組織中的“競爭設(shè)計(jì)”或“評審委員會”流程。

該模式旨在通過多樣性來克服單一 LLM 的固有偏差和局限性。

1. 多樣性(Diversity):團(tuán)隊(duì)由多個智能體組成,它們具有不同的模型(如 Llama 3 vs. Claude Sonnet)、視角(如創(chuàng)意 vs. 直率)或提示詞。這種差異確保了對同一問題產(chǎn)生多維度的解決方案。

2. 并行生成(Parallel Generation):利用 LangGraph 的 Fan-Out (分散) 機(jī)制,所有競爭者同時獨(dú)立工作,生成各自的完整解決方案。

效率提升:如示例所示,串行執(zhí)行可能需要 19 秒以上,而并行執(zhí)行的總耗時僅為 7.33 秒(由最慢的 Agent 決定),大大提高了效率。

3. 裁判仲裁(Judge Arbitration):一個專門的裁判(Judge) 智能體接收所有并行輸出。裁判被賦予一個客觀的評估標(biāo)準(zhǔn)(如清晰度、創(chuàng)造力、影響力),并負(fù)責(zé):

批判 (Critique):對每個解決方案進(jìn)行詳細(xì)、公正的評估。

選擇 (Selection):選出最符合標(biāo)準(zhǔn)的最終贏家,并提供結(jié)構(gòu)化、可追溯的理由。


核心能力7:智能體流水線

智能體流水線(或稱高吞吐量管道化 Pipelining)是一種專注于最大化系統(tǒng)吞吐量的并行模式。它將復(fù)雜的任務(wù)處理流程分解為一系列連續(xù)、專業(yè)化的處理階段,使得不同階段的智能體可以同時處理不同的任務(wù)項(xiàng),從而實(shí)現(xiàn)高效的批量數(shù)據(jù)處理。

該模式模仿了現(xiàn)實(shí)世界中的工廠流水線,其中每個工作站都有一個特定、重復(fù)的任務(wù)。

1. 專業(yè)化(Specialization): 整個任務(wù)(例如,Review Processing)被分解為 個順序的、專業(yè)化的子任務(wù)(例如:Triage→Summarize→Extract Data)。每個智能體(工位)只負(fù)責(zé)一個階段,減少了其認(rèn)知負(fù)荷。

2. 管道化(Pipelining):一旦 Agent A 完成對 Item 1 的工作,它立即將 Item 1 傳遞給 Agent B,并開始處理 Item 2。

在穩(wěn)定狀態(tài)下,所有工位 Agent A,B,C,… 都在并行工作,但它們分別處理 Item 1,Item 2,Item 3,…。

并行目標(biāo):不是縮短單個任務(wù)的**延遲 (Latency),而是最大化單位時間內(nèi)的吞吐量 (Throughput)**。

3. 批量并行(Intra-Node Parallelism): 在工業(yè)實(shí)現(xiàn)中,為了加速單個階段,每個節(jié)點(diǎn)內(nèi)部通常會使用 ThreadPoolExecutor 等工具來并行處理批次 (Batch) 中的所有任務(wù)項(xiàng)(例如,Triage 節(jié)點(diǎn)同時對所有 10 份評論進(jìn)行分類)。


核心能力8:分散式協(xié)作

分散式黑板協(xié)作是一種靈活、強(qiáng)大的多智能體架構(gòu)模式,它通過一個共享數(shù)據(jù)空間(黑板) 和一個中央路由器,實(shí)現(xiàn)了智能體之間的解耦(Decoupling) 和事件驅(qū)動(Event-Driven) 的協(xié)作。該模式適用于解決方案路徑不確定或需要多方專家貢獻(xiàn)知識、共同構(gòu)建復(fù)雜解決方案的場景。

黑板系統(tǒng)的核心在于智能體之間不直接通信,而是通過修改和讀取共享的中央狀態(tài)來協(xié)作。

1. 黑板(The Blackboard):

在 LangGraph 中,黑板就是Graph State(例如 BlackboardState)。它存儲了問題的原始信息和所有智能體貢獻(xiàn)的中間成果(結(jié)構(gòu)化數(shù)據(jù))。

智能體通過寫入黑板來共享信息,通過讀取黑板來獲取所需的輸入。

2. 專業(yè)化知識源(Knowledge Sources):

每個智能體(例如 Analyzer、Retriever、Draftsman)都是一個獨(dú)立、專業(yè)的知識源,只關(guān)注黑板上的特定信息變化。

3. 中央路由器(The Central Router):

路由器是系統(tǒng)的決策大腦。它在每個步驟后檢查黑板的當(dāng)前狀態(tài),并根據(jù)“當(dāng)前需要什么信息”來機(jī)會主義地激活最相關(guān)的智能體。

例如: 如果黑板上有 analysis 但沒有 solution,路由器就激活 Retriever。


核心能力9:冗余執(zhí)行與容錯

冗余執(zhí)行是一種高可靠性架構(gòu)模式,旨在通過并行運(yùn)行多個相同任務(wù)來消除單點(diǎn)故障和長尾延遲的影響。其核心原則是,對于關(guān)鍵步驟,系統(tǒng)不依賴于任何單個實(shí)例,而是選擇最快且成功的結(jié)果。

該模式利用并行計(jì)算的優(yōu)勢,將潛在的不可靠因素轉(zhuǎn)化為確定性的高成功率和低延遲。

1. 容錯性(Fault Tolerance):

當(dāng)一個任務(wù)被并行提交給 N 個相同的智能體或工具實(shí)例時,只要其中一個實(shí)例成功,整個任務(wù)就成功。

即使其中 N-1 個實(shí)例因網(wǎng)絡(luò)錯誤、資源競爭或其他隨機(jī)故障而失敗,只要剩下一個成功,系統(tǒng)即可繼續(xù)運(yùn)行。

示例: 簡單 Agent 的 5 次嘗試中失敗了 2 次(40% 失敗率)。冗余 Agent 僅失敗了 1 次(20% 失敗率),在實(shí)際環(huán)境中,兩個獨(dú)立故障同時發(fā)生的概率極低,成功率會更高。

2. 延遲一致性(Latency Consistency):

長尾延遲(Long-Tail Latency) 是指少數(shù)任務(wù)因網(wǎng)絡(luò)抖動或服務(wù)過載而耗時過長。

冗余執(zhí)行確保任務(wù)完成時間取決于最快完成的實(shí)例,而不是最慢的實(shí)例。

示例: 在嘗試 3 中,慢速實(shí)例耗時 **≈6.78s**,導(dǎo)致簡單 Agent 總耗時 **≈11.99s**。但在 Redundant Agent 的嘗試 3 中,快速實(shí)例率先完成,總耗時僅 **≈6.25s**,成功隱藏了慢速實(shí)例的延遲。


核心能力10:RAG 并行查詢擴(kuò)展

并行查詢擴(kuò)展是一種預(yù)檢索(Pre-retrieval) 策略,用于解決 RAG 系統(tǒng)中最常見的故障模式之一:詞匯不匹配問題(Vocabulary Mismatch)。該模式通過利用 LLM 的生成能力,將用戶的原始查詢轉(zhuǎn)化為多個多樣化的搜索視角,從而最大限度地提高檢索召回率(Recall)。

該模式的核心在于不依賴用戶的單一、原始查詢,而是同時使用 LLM 生成的多種查詢類型進(jìn)行并行搜索。

1. 查詢轉(zhuǎn)換(Query Transformation):* 在一個結(jié)構(gòu)化輸出步驟中,LLM 根據(jù)用戶查詢生成以下多個搜索項(xiàng):

假設(shè)文檔 (HyDE - Hypothetical Document): 生成一個貌似真實(shí)的、直接回答問題的長文本段落。由于向量嵌入基于語義相似性,搜索這個“假設(shè)答案”可以更好地匹配知識庫中真正答案的語義空間。

子問題 (Sub-Questions): 將一個復(fù)雜的、多方面的查詢分解成幾個更簡單、更具體的問題。

關(guān)鍵詞與實(shí)體 (Keywords & Entities): 提取核心名詞和技術(shù)術(shù)語,用于精確的關(guān)鍵詞搜索(尤其適用于稀有實(shí)體)。

2. 并行檢索(Parallel Retrieval):

使用 ThreadPoolExecutor 等并發(fā)機(jī)制,同時將所有生成的查詢(HyDE、子問題、關(guān)鍵詞等)提交給向量檢索器。

召回率 (Recall) 提升:任何一個查詢命中了相關(guān)文檔,該文檔就會被收集。這種多重搜索機(jī)制確保了系統(tǒng)能從知識庫中找到所有相關(guān)的文檔。

3. 最終合成(Synthesis):* 將所有并行檢索到的(并去重后的)文檔集合提供給最后的生成智能體,從而產(chǎn)出更全面、準(zhǔn)確的答案。


核心能力11:RAG 分片與分散式檢索

分片與分散式檢索(Sharded & Scattered Retrieval)是一種關(guān)鍵的基礎(chǔ)設(shè)施模式,用于解決企業(yè)級 RAG 系統(tǒng)中知識庫達(dá)到數(shù)百萬或數(shù)十億文檔時的低延遲和高可擴(kuò)展性挑戰(zhàn)。該模式通過將龐大的知識庫拆分為多個獨(dú)立、可并行檢索的子索引,來保證系統(tǒng)的性能和準(zhǔn)確性。

該模式將檢索系統(tǒng)的瓶頸——單一巨大索引的檢索延遲——轉(zhuǎn)化為多個小索引的并行檢索。

1. 知識庫分片(Sharding):

將一個巨大的單體(Monolithic) 向量存儲庫按邏輯維度(如主題、數(shù)據(jù)源、產(chǎn)品線、時間)分割成多個更小、更易于管理的**分片 (Shards)**。

優(yōu)勢: 檢索延遲主要與索引大小相關(guān)。在小型索引上搜索總是比在大型索引上快得多。

2. 分散式查詢(Scattered Query):

當(dāng)用戶查詢到來時,一個元檢索器 (Meta-Retriever) 或中央編排器將相同的查詢同時發(fā)送給所有分片進(jìn)行并行搜索。

3. 結(jié)果匯聚與重排序(Gather & Re-rank):

所有分片并行返回它們認(rèn)為最相關(guān)的文檔。

系統(tǒng)匯聚 (Gather) 這些結(jié)果,并執(zhí)行一個最終的重排序(Re-ranking) 步驟(本例中為去重),以確定全局最相關(guān)的文檔集合。


核心能力12:RAG 并行混合搜索融合

并行混合搜索融合是一種先進(jìn)的 RAG 檢索模式,旨在通過同時結(jié)合詞匯(Keyword)和語義(Vector)搜索的優(yōu)勢來最大化檢索的準(zhǔn)確性(Accuracy) 和精確性(Precision)。它解決了單一搜索方法在復(fù)雜、多樣化知識庫中普遍存在的盲點(diǎn)問題。

該模式通過在檢索階段的并行執(zhí)行,確保系統(tǒng)能找到所有類型的相關(guān)信息,無論用戶使用的是描述性語言還是精確的標(biāo)識符。

1. 語義搜索 (Semantic Search / Vector):

能力:捕捉查詢的概念和意圖。即使文檔和查詢使用的詞匯完全不同,只要它們含義相似,也能被找到。

優(yōu)勢:適用于描述性問題,例如“我們公司在節(jié)能方面做了哪些努力?”(與文檔中的“綠色計(jì)算戰(zhàn)略”匹配)。

2. 詞匯搜索 (Lexical Search / Keyword):

能力:擅長精確匹配查詢中的特定術(shù)語、數(shù)字、代碼和專有名詞。

優(yōu)勢:適用于查找特定標(biāo)識符,例如“ERR_THROTTLE_900”或產(chǎn)品型號。

3. 并行與融合 (Parallel & Fusion):

并行執(zhí)行:兩種搜索方法同時獨(dú)立運(yùn)行,互不干擾,保證了效率。

結(jié)果融合:將兩種搜索方法找到的所有文檔匯集起來,進(jìn)行去重。最終的上下文集合既具有語義的廣度,又具備詞匯的精確度。


核心能力13:RAG 并行上下文預(yù)處理

并行上下文預(yù)處理是一種后檢索(Post-retrieval) RAG 模式,旨在解決高召回率檢索帶來的問題:將大量原始、嘈雜的文檔直接輸入給最終的生成 LLM 會導(dǎo)致成本高、延遲長,并易引發(fā) LLM 的**“迷失在中間”(Lost in the Middle)** 認(rèn)知偏差。

該模式的核心思想是:**先精煉,后合成 (Distill Before You Synthesize)**。

該模式在檢索和最終生成之間插入了一個關(guān)鍵的并行蒸餾(Parallel Distillation) 步驟,用于將大量的原始上下文(高召回)壓縮為少量但信息密集的精煉上下文(Distilled Context)。

1. 高召回檢索 (High Recall Retrieval):第一步是故意檢索一個大的文檔集(例如 或更高),以確保包含答案的文檔被找到。

2. 并行蒸餾 (Parallel Distillation):

相關(guān)性過濾 (Relevance Check):判斷文檔是否真正相關(guān)。

摘要提煉 (Summarization):將長文檔壓縮成關(guān)鍵要點(diǎn)。

將原始文檔集分成多個子集(本例中是將每個文檔視為一個任務(wù))。

使用多個并行、輕量級的 LLM 調(diào)用,對每個子集執(zhí)行高度集中的任務(wù),如:

優(yōu)勢:多個輕量級 LLM 并行執(zhí)行,總耗時遠(yuǎn)小于用一個 LLM 順序處理。

3. 最終生成 (Final Generation):只將精煉后的、高質(zhì)量的上下文(distilled_docs)傳遞給最終的生成 LLM。


核心能力14:并行多跳檢索

并行多跳檢索是一種高度復(fù)雜的 RAG 架構(gòu),它將 RAG 系統(tǒng)從簡單的問答工具提升為具備多步驟推理和信息綜合能力的 AI 研究助理。該模式專為解決需要綜合多個非關(guān)聯(lián)事實(shí)才能回答的復(fù)雜、比較或多步問題而設(shè)計(jì)。

多跳檢索的流程完美模仿了人類專家面對復(fù)雜問題時的解決思路:分解、并行探索、最終綜合。

1. 問題分解(Decomposition / First Hop):

一個高級的元智能體(Meta-Agent) 首先分析復(fù)雜的原始查詢,并將其分解成 個簡單、相互獨(dú)立的子問題。

結(jié)構(gòu)化輸出:LLM 被要求以結(jié)構(gòu)化的方式(例如 Pydantic 模型)輸出這些子問題列表。

2. 并行檢索與回答(Parallel Retrieval / Second Hop):

利用 ThreadPoolExecutor 等并發(fā)機(jī)制,為每個子問題啟動一個獨(dú)立的 RAG 流程(Retrieval Agent)。

每個 Retrieval Agent 專注于回答自己的簡單子問題,進(jìn)行獨(dú)立的檢索(找到其所需的事實(shí) A、事實(shí) B 等)。

優(yōu)勢: 確保即使單個檢索無法找到所有信息,并行檢索也能從知識庫的不同角落獲取所需的證據(jù)。

3. 最終綜合(Synthesis / Final Hop):

元智能體收集所有子問題得到的答案,而不是原始文檔。

它使用這些高質(zhì)量的、已回答的子問題作為上下文,執(zhí)行一個最終的推理和綜合步驟,生成對原始復(fù)雜查詢的全面、有洞察力的回答。


原文鏈接:https://github.com/FareedKhan-dev/agentic-parallelism

文章來源:Coggle數(shù)據(jù)科學(xué)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302690
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    572

    瀏覽量

    11647
  • 復(fù)雜系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    7065
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【2026年全新】 Agentic AI智能開發(fā)行動營

    達(dá)成共識。兩模式各有適用場景——前者適合結(jié)構(gòu)清晰、可并行拆解的任務(wù),后者適合開放性的創(chuàng)作或評估任務(wù)。 通信協(xié)議 :智能之間需要標(biāo)準(zhǔn)化的消
    發(fā)表于 04-30 10:33

    Java并發(fā)編程的“基石”——多線程概念初識

    AI 算力調(diào)度底層:Java 并發(fā)基石與未來技術(shù)融合 當(dāng)我們在屏幕前流暢地與大語言模型對話,或是看著自動駕駛系統(tǒng)瞬間處理海量視覺數(shù)據(jù)時,往往只會驚嘆于 AI 算法的精妙。然而,在這層絢麗的應(yīng)用外衣
    發(fā)表于 04-16 18:50

    高空線路安裝智能安全帽全雙工組網(wǎng)對講系統(tǒng)(含優(yōu)先級管控)應(yīng)用方案(附帶產(chǎn)品資料)

    智能安全帽雙模式通信架構(gòu)(優(yōu)先級 / 無優(yōu)先級) 為適配現(xiàn)場平等協(xié)同與指揮調(diào)度兩作業(yè)場景,系統(tǒng)支持無優(yōu)先級全雙工與優(yōu)先級指揮兩
    發(fā)表于 04-10 14:29

    【2025夏季班正課】大模型Agent智能開發(fā)實(shí)戰(zhàn) 課分享

    通過拼湊零散的提示詞、復(fù)制網(wǎng)上的代碼片段以及盲目調(diào)用各種工具庫來構(gòu)建智能。這種“積木式”的開發(fā)方式雖然在初期能夠快速產(chǎn)出演示原型,但在面對復(fù)雜的業(yè)務(wù)場景、嚴(yán)苛的生產(chǎn)環(huán)境以及高并發(fā)的用
    發(fā)表于 03-29 16:12

    尋找對RISCV眾核并行計(jì)算感興趣的伙伴、朋友

    。 2、智能并行編譯器 基于開源的GCC改裝,研發(fā)智能并行編譯器,能將傳統(tǒng)的C/C++等變成“并行編程語言”。不改變語言語法,程序員通過鏈接
    發(fā)表于 03-28 14:41

    尋找對RISCV眾核并行計(jì)算感興趣的伙伴

    。 2、智能并行編譯器 基于開源的GCC改裝,研發(fā)智能并行編譯器,能將傳統(tǒng)的C/C++等變成“并行編程語言”。不改變語言語法,程序員通過鏈接
    發(fā)表于 03-28 14:37

    小藝開放平臺鴻蒙智能開發(fā)智能配置-基礎(chǔ)信息

    創(chuàng)建智能后,開發(fā)者可以進(jìn)入智能配置頁面對智能基礎(chǔ)信息進(jìn)行編輯。支持編輯
    發(fā)表于 02-02 16:47

    小藝開放平臺平臺功能

    選擇插件、工作流,響應(yīng)用戶需求。LLM模式適用于簡單對話、知識問答、基礎(chǔ)內(nèi)容生成等場景。 工作流模式 工作流模式是一基于規(guī)則化流程的智能
    發(fā)表于 01-30 15:24

    一文說透了如何實(shí)現(xiàn)單片機(jī)的多任務(wù)并發(fā)!

    在嵌入式系統(tǒng)開發(fā)中,多任務(wù)并發(fā)是非常常見的,對于處理復(fù)雜的應(yīng)用場景、提升系統(tǒng)并發(fā)能力、提高系統(tǒng)
    發(fā)表于 01-06 06:46

    智能設(shè)計(jì)模式智能框架,你會了么?

    ,DeepResearch三模式,以實(shí)現(xiàn)靈活的任務(wù)執(zhí)行 。 DataJuicer 智能是一個數(shù)據(jù)專員,由 數(shù)據(jù)處理智能
    的頭像 發(fā)表于 11-12 16:30 ?1400次閱讀
    多<b class='flag-5'>智能</b><b class='flag-5'>體</b>設(shè)計(jì)<b class='flag-5'>模式</b>和<b class='flag-5'>智能</b><b class='flag-5'>體</b>框架,你會了么?

    Swift 的并發(fā)系統(tǒng)并行運(yùn)行多個任務(wù)

    ??前言 Swift 內(nèi)置并發(fā)系統(tǒng)的好處之一是它可以更輕松地并行執(zhí)行多個異步任務(wù),這反過來又可以使我們顯著加快可以分解為單獨(dú)部分的操作。 在本文中,讓我們看一下幾種不同的方法,以及這些技術(shù)中的每一
    的頭像 發(fā)表于 11-11 11:33 ?575次閱讀

    如何有效管理和部署的AI智能

    隨著人工智能技術(shù)的快速發(fā)展,AI智能正從單一任務(wù)執(zhí)行工具演進(jìn)為具備自主決策能力的復(fù)雜系統(tǒng)。在這個演進(jìn)過程中,如何有效管理規(guī)?;渴鸬?/div>
    的頭像 發(fā)表于 10-17 14:35 ?506次閱讀
    如何有效管理和部署的AI<b class='flag-5'>智能</b><b class='flag-5'>體</b>

    AI智能管理系統(tǒng)構(gòu)建企業(yè)級應(yīng)用的管理框架

    隨著人工智能技術(shù)的快速發(fā)展,AI智能正從單一任務(wù)執(zhí)行工具演進(jìn)為具備自主決策能力的復(fù)雜系統(tǒng)。這一轉(zhuǎn)變催生了新一代AI
    的頭像 發(fā)表于 10-16 14:27 ?479次閱讀

    百度發(fā)布全球首個全端通用智能GenFlow 2.0

    現(xiàn)在,煥新升級的GenFlow 2.0,支持100+專家智能同時干活,3分鐘能夠并行完成超5項(xiàng)復(fù)雜任務(wù),生成速度超主流同類型產(chǎn)品10倍。
    的頭像 發(fā)表于 08-19 17:14 ?2113次閱讀

    鴻蒙5開發(fā)寶藏案例分享---應(yīng)用并發(fā)設(shè)計(jì)

    ): Page { // 復(fù)雜解析邏輯(耗時操作) return new Page(rawData); } 并發(fā)優(yōu)化點(diǎn) : 采用<span class=\"ne-text
    發(fā)表于 06-12 16:19
    长海县| 潮安县| 丁青县| 铜山县| 饶阳县| 南和县| 张北县| 岑巩县| 济源市| 营口市| 罗甸县| 阿拉善盟| 永吉县| 台北县| 嘉鱼县| 错那县| 望都县| 上杭县| 博白县| 寿阳县| 调兵山市| 沂源县| 河池市| 商都县| 清水河县| 吉林省| 新巴尔虎左旗| 龙里县| 县级市| 巴马| 银川市| 宣威市| 光山县| 宝山区| 天峻县| 大姚县| 南汇区| 乐东| 塔河县| 独山县| 新竹市|