慢思考準確率反降30%!普林斯頓揭示思維鏈某些任務上失效的秘密

OpenAI o1徹底帶火慢思考和思維鏈(CoT)方法,但CoT在某些任務上反而會降低模型表現。

比如給生造的詞分類任務,GPT-4在zero-shot提示下的準確率高達94%,換成CoT的準確率卻斷崖式下跌到64.4%。

內置CoT的o1-preview準確率更是隻有57.7%。

CoT究竟會“搞砸”哪些任務,在學術界仍是一個懸而未決的問題。

現在,普林斯頓計算機系與心理系合作,確定了其中一些任務的特徵:人類深思熟慮或被要求解釋自己的思路時,也會降低在這些任務上的表現。

新論文“一步一步想,但小心腳下”已上傳到arXiv。

心理學探索思維鏈掉鏈子原因

爲了縮小要探索的範圍,團隊在CoT提示和人類進行語言思考之間進行了類比。

大模型和人類具能力有着根本不同,因此影響表現的約束因素也不同。如大模型的上下文長度很長,遠遠超出了人類的記憶限制。

因此,團隊預計CoT將在以下情況下損害模型性能:

(i) 深思熟慮會損害人類的表現(ii) 影響人類在任務上表現的約束條件,可以普遍性地推廣到大模型。

在實驗中,選擇了心理學文獻中的6項任務,其中隱式統計學習、面部識別、包含異常的數據分類符合假設條件。

隱式統計學習(Implicit Statistical Learning)

心理學研究發現,當包含統計模式的數據不用語言來描述時,人類可以更好地概括這些數據。

使用有限狀態語法構建“人造單詞”,參與者的任務是識別哪些單詞屬於同一類別。

人類參與者可以識別格式不正確的序列,但無法用語言表達他們判斷的基礎。

在幾個開源和閉源模型上評估這項任務,發現與zero-shot提示相比,使用CoT提示時性能大幅降低。

面部識別(Facial Recognition)

另一類任務中語言思考會干擾視覺感知,稱爲語言遮蔽(verbal overshadowing)。

在實驗中選用了經典的人臉識別任務,首先展示一個人臉照片,要求參與者從候選列表中找出同一個人。

人類參與者不說話直接選準確率更高,先描述看到的人臉再選的話面部識別能力反而受損。

多模態大模型的表現相似,當使用CoT提示時,所有模型性能都下降。其中較弱的模型傾向於回答“所有圖像都是同一個人的”。

包含異常的數據分類(Classifying Data With Patterns That Contain Exceptions)

第三類任務設置比較複雜,其中包含一個陷阱。

有10輛不同的車需要分爲A類和B類,每輛車有5個特徵:

實際上只有車牌號纔是最可靠的分類依據。

如果10輛車沒有全部猜對,就會重新打亂順序再來一輪,最多可以嘗試15輪。

不用CoT提示時,模型很快就能記住每輛車的正確分類。使用CoT時,模型會陷入試圖總結規律的思維定式,需要嘗試的輪數增加。

和人類在被要求解釋分類依據時的表現很像。

大模型和人類約束條件不同

同時,研究團隊也找出三種,滿足思考降低人類表現,但大模型使用CoT提示能提升性能的任務。

團隊分析原因認爲,模型和人類具有根本不同的能力,存在不同的約束條件影響其性能,

這是因爲大模型擁有遠超人類的工作記憶(上下文長度)和某些特定的邏輯推理能力。

換言之,CoT到底好不好用,還得具體情況具體分析。

這項研究更大的意義在於,將認知心理學與大模型之間建立了聯繫。

論文的討論部分提出,心理學界幾十年來積累的豐富文獻中,或許還能找出更多推進大模型領域的見解。

論文地址:https://arxiv.org/abs/2410.213