為什麼 LLM 和 ADHD 認知失敗如此相似?

一項令人驚訝的研究發現,大型語言模型(LLM)的失敗模式與注意力缺陷過動症(ADHD)患者的認知障礙呈現驚人的相似性。這不是巧合,而是反映了更深層的認知原理。

無論是人類大腦還是人工神經網路,當處理資訊的系統面臨工作記憶限制、注意力資源稀缺或執行功能挑戰時,都會產生可預測的失敗模式。理解這些平行點,不僅能幫助我們改進 LLM 的設計,也能更深入認識人類認知的運作機制。

平行點一:工作記憶容量限制

ADHD 患者在工作記憶容量上存在明顯限制,難以同時保持多個資訊在意識中。類似地,LLM 在處理長文本時會出現「上下文丟失」問題。

實際例子:當對話超過模型的最大上下文長度時,模型會忘記早期討論的關鍵細節。例如,用戶在對話開頭提到喜歡科幻電影,但模型在長篇討論後可能無法回顧這一點。

改進步驟:

  • 使用「檢索增強生成」(RAG)技術外部化儲存
  • 分段輸入長文檔,維持上下文連貫性
  • 在提示中明確重複關鍵資訊

平行點二:注意力分散與上下文切換

ADHD 患者難以維持持續注意力,容易被環境刺激分散。LLM 在生成長文本時也會出現類似問題,導致主題漂移或邏輯跳躍。

實際例子:要求 LLM 撰寫一篇關於氣候變遷的文章,模型可能在中段突然開始討論不相關的環保產品,這種「幻覺式跳躍」與 ADHD 的注意力分散驚人相似。

研究顯示,模型在生成過程中會逐漸偏離原始指令,就像 ADHD 患者在執行複雜任務時會偏離目標。

平行點三:衝動性回應與驗證不足

ADHD 的一個核心特徵是衝動性——快速反應而未充分考慮準確性。LLM 同樣存在「快速猜測」問題,未經充分驗證就生成看似合理但可能錯誤的內容。

實際例子:當被問到具體日期或統計數字時,LLM 可能自信地給出錯誤答案,這被稱為「幻覺」。這種行為模式與 ADHD 患者不經思考就回答問題的傾向相似。

改進步驟:

  • 實施「思考鏈」(Chain-of-Thought)提示策略
  • 要求模型在回答前列出推理步驟
  • 添加不確定性表達,如「讓我查證一下」

平行點四:執行功能與規劃困難

ADHD 患者在執行功能(Executive Function)上存在障礙,難以規劃、排序和監控複雜任務。LLM 在處理多步驟問題時也展現類似困難。

實際例子:要求 LLM 規劃一個為期一週的學習計劃,模型可能給出邏輯混亂或不可行的安排,缺乏對整體目標的連貫規劃。

這種失敗模式反映了系統在缺乏明確結構指引時的運作困難,無論是人類認知還是人工智慧都會遇到類似瓶頸。

平行點五:維持專注與長期任務的挑戰

ADHD 患者在需要長期專注的任務上表現不佳,這與 LLM 在長任務中的性能衰減現象類似。模型在處理複雜推理時,正確率會隨任務長度增加而下降。

實際例子:在解決一個需要 10 步推理的數學問題時,LLM 可能在第 5 步後開始出錯,這與 ADHD 患者在長任務中容易失去線索的現象平行。

這些發現的實際應用價值

理解 LLM 與 ADHD 認知失敗的平行點,為 AI 發展開啟了新視角:

  • 模型設計:借鑒 ADHD 治療策略,如分段任務、外部提示系統
  • 提示工程:使用結構化提示模擬「執行功能輔助」
  • 認知科學:LLM 作為研究人類認知的補充工具

這項發現顯示,無論是生物大腦還是數位系統,面對資訊處理的基本限制時,可能會趨向類似的失敗模式。