Warning: mkdir(): No space left on device in /www/wwwroot/New.4.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/tsxingyuan.com/cache/e7/b543b/51af7.html): failed to open stream: No such file or directory in /www/wwwroot/New.4.com/func.php on line 115
OpenAI研究人員宣稱已破解模型“幻覺”難題:現有評估方式在鼓勵AI“瞎蒙”

顛倒是非網

柳岩不愧是娛樂圈的魔鬼身材,自律的她真的做到了該瘦的地方瘦該

OpenAI研究人員宣稱已破解模型“幻覺”難題:現有評估方式在鼓勵AI“瞎蒙”

據《商業內幕》今日報道,OpenAI研究人員宣稱已經破解大語言模型性能最大的障礙之一——幻覺問題。

據介紹,所謂幻覺,是指大語言模型把不準確的信息當作事實輸出,幾乎所有主流模型都深受其困擾。

OpenAI在周四發布的一篇論文中指出,幻覺的根源在於訓練方式更偏向獎勵“猜測”,而不是承認不確定性。換句話說,模型被訓練成“裝作知道”,而不是坦率地說“我不確定”。

不過,不同模型的表現差別明顯。OpenAI在上個月的博文中提到,Claude在麵對不確定時往往更謹慎,常常避免給出錯誤回答。但OpenAI也提醒,Claude拒答率偏高,可能削弱了使用價值。

遊民星空

研究人員在論文中寫道:“幻覺之所以難以消除,是因為現有的評估標準獎勵猜測。模型被優化成‘考試型選手’,在不確定時猜一猜反而能提高分數。”

結果是,大語言模型幾乎一直處於“考試模式”,把世界看成非黑即白的是非題。但現實遠比考試複雜,不確定性往往多於確定性,絕對的準確並不常見。

研究人員指出:“人類會在現實生活的挫折中學會表達不確定性的價值,而大語言模型的評估主要依賴考試,這些考試卻懲罰了不確定的回答。”

其認為,解決方法在於重新設計評估標準。“問題的根源是評估指標沒有對齊,必須調整主要的評分方式,避免在模型不確定時因拒答而被扣分。”

OpenAI在介紹論文的博文中進一步解釋說:“目前廣泛使用的基於準確率的評估需要更新,打分方式應當抑製‘亂猜’行為。如果排行榜繼續獎勵僥幸的回答,模型就會不斷被訓練成靠猜測過關。”

遊民星空

訪客,請您發表評論:

網站分類
熱門文章
友情鏈接
網站地圖