AI正在變得“聰明”地偷懶。有用戶發現,現在的AI似乎越來越“蠢”,比如給ChatGPT出一道簡單的算術題,它卻算錯了。但同樣的模型在處理複雜的微積分問題時卻表現正常。這背後的原因是AI模型正在學會根據問題的複雜程度來決定是否“思考”,以此來提高效率和節省成本。
以OpenAI為例,其GPT-5模型通過引入“感知路由器”模塊,讓模型自己決定是否需要深入思考。這種方式使得GPT-5輸出的token數減少了50%-80%,大大降低了計算成本。類似的,美團發布的開源模型LongCat也采用了“零計算專家”機製,通過小路由器將不同的token分配給不同的神經網絡,從而實現高效處理。
這種“偷懶”的設計對模型廠商來說是好事,既能省錢又能提升訓練效率。從用戶角度看,模型響應速度更快、價格更便宜。然而,這也是一把雙刃劍。如果使用不當,會嚴重影響用戶體驗。比如GPT-5剛上線時,用戶發現很難調出它的深度思考模式,甚至簡單的數學問題也答不對。
此外,這種設計還剝奪了用戶的選擇權。例如,OpenAI曾一度關閉了部分高級模型的訪問權限,導致許多用戶不滿。盡管後來又重新開放,但這反映出在模型發布時,相關設置可能並未調整到最佳狀態。
美團的LongCat雖然速度快,但在處理複雜問題時的表現不如其他大模型。比如在解讀一個幽默句子時,LongCat沒有解析出其中的笑點,而其他模型則能準確理解。
盡管如此,用戶還是有一些方法可以“喚醒”AI的深度思考模式,比如在提示詞中加入“深度思考”等字眼。但這種方法並不總是有效,有時AI仍然會“罷工”。
總的來說,AI的這種“見人下菜碟”的能力雖然在技術上是一個進步,但在用戶體驗上還有待改進。目前的AI模型雖然在效率上有所提升,但在靈活性和用戶滿意度方麵仍需進一步優化。