據《商業內幕》今日報道,OpenAI研究人員宣稱已經破解大語言模型性能最大的障礙之一——幻覺問題。
據介紹,所謂幻覺,是指大語言模型把不準確的信息當作事實輸出,幾乎所有主流模型都深受其困擾。
OpenAI在周四發布的一篇論文中指出,幻覺的根源在於訓練方式更偏向獎勵“猜測”,而不是承認不確定性。換句話說,模型被訓練成“裝作知道”,而不是坦率地說“我不確定”。
不過,不同模型的表現差別明顯。OpenAI在上個月的博文中提到,Claude在麵對不確定時往往更謹慎,常常避免給出錯誤回答。但OpenAI也提醒,Claude拒答率偏高,可能削弱了使用價值。
研究人員在論文中寫道:“幻覺之所以難以消除,是因為現有的評估標準獎勵猜測。模型被優化成‘考試型選手’,在不確定時猜一猜反而能提高分數。”
結果是,大語言模型幾乎一直處於“考試模式”,把世界看成非黑即白的是非題。但現實遠比考試複雜,不確定性往往多於確定性,絕對的準確並不常見。
研究人員指出:“人類會在現實生活的挫折中學會表達不確定性的價值,而大語言模型的評估主要依賴考試,這些考試卻懲罰了不確定的回答。”
其認為,解決方法在於重新設計評估標準。“問題的根源是評估指標沒有對齊,必須調整主要的評分方式,避免在模型不確定時因拒答而被扣分。”
OpenAI在介紹論文的博文中進一步解釋說:“目前廣泛使用的基於準確率的評估需要更新,打分方式應當抑製‘亂猜’行為。如果排行榜繼續獎勵僥幸的回答,模型就會不斷被訓練成靠猜測過關。”