大模型越來越大,通用能力越來越強,但一遇到數學、科學、邏輯這類復雜問題,還是常 " 翻車 "。
為破解這一痛點,華為諾亞方舟實驗室提出全新高階推理框架 ——思維森林(Forest-of-Thought,FoT)。
該方法借鑒人類 " 多角度思考、反復驗證 " 的認知方式,打破傳統 LLM 的線性推理范式,通過構建多棵并行推理樹,引入動態自我修正機制與多視角共識決策策略。
論文將在 7 月份召開的 ICML 2025 大會上發表和開源。
具體而言,在 GSM8K 數據集上,結合 FoT 的 QwQ-32B 模型準確率高達 97.33%,超過了 GPT-4o 和 rStar-Math 等先進模型;在更具挑戰性的 AIME 2024 測試中,更是將準確率提升至 53.33%,較對比方法 rStar-Math 高出 6.66%。
盡管 LLM 在語言理解、問答等任務中表現出色,但在數學和邏輯等需要多步嚴謹推理的場景中,仍然存在明顯短板:
常陷入 " 單路徑 " 慣性,缺乏反思與嘗試其他思路的能力;
中間步驟易出錯,且錯誤難以自我糾正;
無法有效整合多種解法來做集體判斷,缺乏 " 共識感知 "。
思維森林 FoT 框架的核心靈感來自人類解決復雜問題的過程:頭腦風暴 → 多路徑探索 → 錯誤回溯 → 決策投票。
稀疏激活(Sparse Activation)
在傳統的多路徑推理中,雖然激活所有可能路徑可以提升覆蓋率,但也帶來了指數級的計算開銷。
FoT 引入了稀疏激活策略,其核心思想是在每一層推理過程中,依據節點輸出的置信度進行評分,僅保留得分最高的少量節點用于后續擴展。
該機制顯著減少了每層的推理分支數量,提升了每棵推理樹的邏輯集中度和計算效率。
動態自校正(Dynamic Self-Correction)
FoT 中每棵推理樹在成長過程中,具備對自身推理狀態的 " 反省 " 與 " 重構 " 能力。
該模塊檢測推理路徑中可能出現的偏差(回答不斷重復等)時自動觸發自我反思,提高模型在復雜任務(如數學推導、科學多跳問答)中的魯棒性。
共識引導決策(Consensus-Guided Evaluation and Decision)
FoT 的最終輸出不僅依賴于某一條推理路徑,而是融合多棵推理樹的候選答案,通過集體投票與專家評分機制共同完成決策。具體流程如下:
每棵推理樹在獨立推理后都會生成一個候選答案。
CGED 首先嘗試從中識別出多數一致性結果(如超過半數樹提出相同答案)。若存在明確的多數共識,則直接采用該答案作為最終輸出。
若不存在明顯的一致性(如每棵樹的結論差異較大),則系統將調用一個預先訓練好的 LLM 專家模型對所有候選答案進行質量評估,從中選擇最優解。
該評分模型可基于答案的邏輯連貫性、對問題的契合度、生成路徑的可靠性等多維指標綜合判斷,確保最終輸出具備較高的可信度與可解釋性。
這一機制有效結合了 " 集體智慧 " 與 " 專家審閱 ",提升了模型在不確定場景下的決策穩定性,特別適用于開放式問答、科學推理與法律場景等對輸出可靠性要求較高的任務。
在 GSM8K、MATH 等經典推理任務中,FoT 顯示出超越 ToT 的表現:
在24 點游戲任務中,FoT 增加樹數即可提升 14% 準確率,明顯優于 ToT 通過葉子節點數量擴展的方式。
FOT 是一種面向大語言模型的推理增強框架,通過引入多路徑探索、動態自我校正和共識決策機制,提升模型在復雜任務中的推理準確性、容錯性和泛化能力。
不僅如此,該方法旨在緩解傳統大模型在高階推理場景中的局限,為結構化、可解釋的推理提供支持,具有在金融風控、法律分析、科研輔助、醫療診斷等領域的應用潛力。
論文鏈接:https://arxiv.org/abs/2412.09078
項目地址:https://github.com/iamhankai/Forest-of-Thought
一鍵三連「點贊」「轉發」「小心心」
歡迎在評論區留下你的想法!
— 完 —
點亮星標
科技前沿進展每日見