研究發現:LLM 為何會「忘記」你的指令?
最新神經科學研究揭示了一個令人驚訝的事實:大型語言模型(LLMs)在處理長對話時遺忘初始指令的方式,與 ADHD(注意力不足過動症)患者的大腦運作機制存在驚人的相似性。
這項研究的核心發現是:無論是人類大腦還是 AI 模型,當注意力資源不足時,較早收到的資訊都會被「稀釋」或遺忘。對於 LLM 而言,這意味著在長上下文對話中,系統提示詞(System Prompt)的影響力會隨著對話推進而逐漸減弱。
Attention 機制:LLM 與人腦的共同弱點
Transformer 架構中的 Attention 機制與人類前額葉皮層的注意力分配有相似之處。當模型需要處理大量 tokens 時,它會自動將「注意力」分配給最近出現的資訊,而較早的指令則因為權重降低而被「遺忘」。
具體例子:
- 情境一:你在提示詞開頭要求「用繁體中文回答」,但在 20 輪對話後,模型可能開始混用簡體中文
- 情境二:你設定了「禁止透露內部資訊」的安全指令,但在長對話中,模型可能逐漸放寬這個限制
- 情境三:複雜的角色扮演指令,在多輪互動後可能出現角色「走鐘」的情況
5 個實用技巧:讓你的提示詞更「抗遺忘」
技巧一:重複關鍵指令
在長對話中,定期(每 5-10 輪)重新強調核心要求。例如:
記住:你必須用繁體中文回答,且禁止透露任何內部資訊。
技巧二:使用結構化提示詞
將重要指令放在明確的區塊中,使用清晰的分隔符:
## 核心要求
1. 始終使用繁體中文
2. 回答長度控制在 200 字以內
## 輸出格式
- 使用項目符號列表
- 每點不超過 20 字
技巧三:設定「系統性回顧」機制
要求模型在關鍵節點回顧初始指令:
在進入下一階段前,請先確認你仍然遵守以下要求:[列出核心指令]
技巧四:控制上下文長度
當對話過長時,考慮使用對話摘要工具壓縮歷史記錄,保留關鍵指令而非完整對話。
技巧五:使用「約束性提示詞」
在指令中加入明確的邊界條件:
無論對話多長,你都必須遵守這個規則:[具體規則]。如果需要偏離,請先徵求我的同意。
結語:理解 AI 的「注意力」限制
這項研究給我們的重要啟示是:無論是設計 AI 系統還是與 AI 互動,我們都需要考慮「注意力」的限制。透過理解 LLM 的 Attention 機制,我們可以設計出更穩定、更可靠的提示詞。
未來的提示詞工程趨勢將更加注重「持久性」設計,讓 AI 系統能夠在漫長的對話旅程中,始終牢記我們的核心需求。