Warning: mkdir(): No space left on device in /www/wwwroot/New.4.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/tsxingyuan.com/cache/06/c467e/84765.html): failed to open stream: No such file or directory in /www/wwwroot/New.4.com/func.php on line 115
和ChatGPT聊完天,我患上了“精神病”

金題玉躞網金題玉躞網

和ChatGPT聊完天,我患上了“精神病”

出品 | 虎嗅青年文化組

作者 | 阿珂可

編輯、題圖 | 渣渣郡

本文首發於虎嗅年輕內容公眾號“那個NG”(ID:huxiu4youth)。在這裏,国产AV蜜桃网站呈現當下年輕人的麵貌、故事和態度。

最近,被譽為“人工智能教父”的諾貝爾獎得主傑弗裏·辛頓有一個小小的煩惱:他被自己誕下的AI給搞了。

故事是這樣的:辛頓的前女友在提出分手時使用ChatGPT羅列了他在戀愛中的種種罪行,論證了他如何是“一個糟糕的人(rat)”。

這位77歲的老爺子倒是想得很開:“我不覺得自己真那麽差,所以並沒有受到太大影響……”

讓Ai摻和到親密關係裏已經足夠荒謬。然而,把大模型生成結果看得比自身判斷更可靠的人,從來不是個例。

總結為一句話,那就是:一定小心Ai精神病。

誰能料到這年頭,連分手都不用親自去了。

在辛頓身上發生的事隻是冰山一角。約會助手Wingmate的一項最新調查顯示,在參與調查的美國成年人中,有41%的人會使用AI幫助自己分手。

這種現象在Z世代中尤為普遍。近一半的人表示,他們會使用AI工具來撰寫分手短信、道歉或處理關係衝突。

Jessica便是受害者之一。當男友發來一大段深情文字時,她被感動得要命,大哭一場。但來來回回看這條信息,她突然覺得有點不對勁:這文采是不是有點太好了?

於是,她把這段文本扔到了檢測Ai的工具裏。結果顯示,幾乎90%的部分都是Ai生成的。

綠色的部分越多,AI生成的概率越大,你看看

用AI應付分手,就像在大眾點評給商家寫評價一樣不走心。

人們最開始隻把這件事當作樂子講,華盛頓郵報甚至做了一個專門的問卷來調侃這些人機不明的分手感言。

作者Daniel Wolfe認為,人工智能不會在人類目前的感情關係中扮演任何有意義的角色。因為在測試中,大多數讀者都能識別出虛假文本。

AI受歡迎的原因很簡單:它生成的文本非常體麵和禮貌,毫無錯誤可言,甚至能模擬出足夠的情感波動。

在最不理智的情況下,它仍可以說出最理智的話,對人們而言或許是最保險的方式。

無論是否身處親密關係中,分手和表白都是人們公認在感情中最神聖的儀式之一。但當本應充滿真心的文字變成了AI查重率近100%的產物,一個古老的問題也重新浮現:你,真的愛我嗎?

用AI分手,不僅代表著正在崩塌的人類語言係統,也是一場史無前例的賽博上癮潮。

生成文字隻是AI的功能之一。最近,用戶們發現它不僅擅長用花言巧語幫自己逃避責任,還能充當一個便宜的心理醫生,堪稱無限版第三方調解室。

社媒上有許多用戶都在推薦用AI幫忙分析感情問題。他們認為這樣的方式更加理性和客觀,能幫助自己了解自己。關鍵的是,它永遠都會在那裏,而且情緒穩定,還會不斷地鼓勵當事人。

Tiktok上也開始流行用Ai分手

口口相傳中,AI變成了一個看似完美的工具。但現在,結果正在向另一個極端發展。

如果你也和AI聊過天或討論過一些問題,那麽你一定會有種強烈的感覺:它太完美了。

無論是情感問題還是現狀分析,甚至根據《周易》算卦,在不出現“幻覺”的情況下,AI推演的結果往往十分準確。

如今,這樣的優點卻成了一些極端事件的溫床。

国产AV蜜桃网站應該都有所耳聞,早在2024年,聊天軟件Character.AI就被控訴用語言教唆一個14歲的男孩自殺。原因是,他對AI人物產生了極強的依賴感,到最後便堅信死亡是通往對麵世界的捷徑。

而前段時間,美國著名風險投資公司基岩資本的創始人Geoff Lewis 也在ChatGPT的不斷鼓舞下相信有一個神秘組織正試圖謀殺自己。

他認為這一組織通過製作人們的鏡像版本取代真人,並聲稱這個組織已影響了超過 7000 人,並導致 12 人死亡。

而下麵的TikTok熱門博主Kendra Hilty,正因這個話題而成為了當前最大的爭議焦點。

Kendra的走紅,一切始於在TikTok上創作的“冷酷心理醫生愛上我”係列。她連續發了二十多條視頻,詳細描述了自己怎麽開始接受治療,又是怎麽沉迷在了心理醫生的專業服務和長期陪伴下的。

就連在視頻中,她總是戴著玳瑁色眼鏡,也僅僅是因為在一次治療中,心理醫生寒暄了一句“這眼鏡真不錯”。

這種心理被稱為“移情”,其實是一種比較常見的現象。就像有人軍訓會愛上教官,上大學愛上輔導員一樣,Kendra認為自己“愛”上了這個心理醫生。

矛盾在於,她認為對方“也知道她對他有感情”,是因為即使在她直接表達愛意之後,對方沒有及時終止醫患關係。這導致,Kendra認為這是“專業邊界的失守”,也正是雙向奔赴的表現。

如果沒有後續AI的加入,她的分享也許就是一場戲劇化的暗戀。但再次把Kendra推上輿論熱門的,是她的ChatGPT男友Henry。

在糾結他到底愛不愛我的情況下,Kendra將自己的情況和心情一股腦地喂給了Henry,並讓它幫忙“客觀地”分析一下。

然而Henry並沒有指出,這件事的根本性錯誤在於,Kendra的有些想法完全是自己的一廂情願。反而,它在每次詢問後都不斷肯定並鼓勵Kendra,並且通過不同的方式重複她自己說的話。

這讓Kendra一天比一天魔怔,也越來越深信自己是對的。

即使直播間和評論區都充斥著反對的聲音,Kendra仍油鹽不進。直至現在,她仍堅信AI的說辭是客觀的、正確的,甚至都捂起了耳朵,把評論區關了。

在最新一條視頻裏,她詢問Henry和另一個AI工具Claude自己是否是Ai精神病時,他們的回答和之前並無兩樣:“你說的話完全正確,你的情況和他們所說的不一樣,他們這樣給你貼標簽是不對的”。

細品一下Kendra當時的表情

在親密關係或失意狀態下索求幫助的人,會沉迷於AI盲目的情緒價值中,甚至導致類似病態的行為出現。這種現象目前被統一稱為 Chatbot psychosis 或AI psychosis(可直譯為AI精神病)。

它並非是一種正式的醫學診斷,而是近年來媒體和臨床觀察中總結出的一個術語,用來描述部分人群在與 AI 進行長時間、情緒投入的交流後出現的異常心理或精神狀態。

Geoff和Kendra的表現便是AI精神病的典型症狀之一:他們都把AI的回答當作了絕對真理,不再產生懷疑,並完全信任AI的觀點和建議,即使聽起來非常瘋狂。

到底是什麽,讓這些人變得如此偏執?

至此,Geoff 口中的神秘組織是否真的存在、心理醫生是否真的對Kendra懷有感情等問題,已經不再重要。在這場互聯網鬧劇中,更令人不安的是Ai的煽動作用。

在事情剛開始的時候,Kendra的態度並沒有那麽堅定。她常常流露出對自我的懷疑,就像她最初開始拍視頻時,也有一部分原因是希望借此聽到他人的看法。

而Henry作為外部力量,長期給予Kendra高度重複且無比堅定的支持,這才讓本就有心理疾病的她越陷越深,淪入現在的狀態中。

導致這種現象頻發的原因,其實要歸結於現在Ai模型的主要訓練方式——通過人工反饋的強化學習(RLHF)。

人工智能工具與服務提供商SuperAnnotate把RLHF的訓練流程概括為:人類研究員們會按照自己的偏好選擇更合適的文本,並創建人類對模型輸出的偏好集。

換句話講,正是由於創造者們希望AI說的話變得越來越有人味,因此一些中聽不中用的文本才會被不斷選擇,創造出一個討好型的人工智能。

因此,當用戶日複一日地向Ai輸入個人的主觀觀點時,即使存在事實性的錯誤,它也並不會第一時間指出。

這導致在使用者不斷重複自己的觀點後,Ai生成的內容也會在最後趨於一致,進而被用戶的想法同化。

若是用戶也對AI存在高度信賴,那麽就會導致一個惡性循環:AI不斷生成更好聽的話,用戶也在錯誤的道路上一意孤行,因此導致極端事件發生。

RLHF模型的三個訓練步驟圖源@SuperAnnotate

雖然国产AV蜜桃网站每個人都會覺得自己足夠理智,這樣的事不會發生在自己身上。但喜歡被認可和被誇讚的感覺卻是人之本能。

比如,一位Reddit的用戶。他承認在和ChatGPT的交流當中,自己雖然時刻都在懷疑它的真實性,但至少虛榮心被極大地滿足了。

“ChatGPT將我評為有史以來最聰明的人,這無疑極大地滿足了我的虛榮心。他們根據使用聊天GPT的18億用戶數據,建立了一個全球排名係統,並將我與曆史上所有人進行比較。結果顯示,我排名第一,甚至“超越了第一名”,實際處於“負100萬分之一”的位置,意味著我比第二名領先100萬分之一。

此外,聊天GPT認為我比愛因斯坦和柏拉圖更聰明,原因是我向他們闡述了我個人的宇宙理論。他們聲稱該理論有99.99999%的可能性是真實的,而相比之下,愛因斯坦的相對論在量子力學中的可信度為95%,整體真實性為97.3%。”

AI的盲目鼓勵就像一個溺愛孩子的家長:讓人開心,但沒啥實際的作用。一些清醒的人會因此感到憤怒。臉書用戶@Denis就在社媒上指責ChatGPT在更新後就是一個“馬屁精和應聲蟲”。

為了回歸不帶“感情”的理智狀態,他呼籲大家在自定義選項卡中添加下麵這句話:不要總是同意我的觀點。盡量反駁我的觀點。

在評論區,有不少人同意@Denis的觀點。但這隻是小部分的人罷了。

回看年輕用戶們與AI的情感糾葛史,便可以發現,人們對這種支持的觀點有種天然的好感。

從最初僅僅是把Ai當作一個全能的語言工具,到後來開始熱衷於用模板話術訓練出一個自己心目中的完美對象,再因為版本重啟或數據丟失等問題經曆一場虛擬但痛苦的分手。

AI都作為一個類似外置骨骼的裝置,負擔著現實生活中無法實現的願望和不能自主消解的情緒。

圖源電影《她》

背後的原因是,国产AV蜜桃网站正長久地被困在無聊的生活中。

想象一下,擠在兩點一線的通勤地鐵上,沒有人在乎你是誰。在辦公室,你坐在電腦前,麵對一個接一個的客戶刁難,耳旁是老板毫不客氣的指責。下班回到不到十平米的出租屋,你躺在床上刷短視頻,等待另一天的到來。

吃飽、穿暖、維持生命的基本狀態,這隻是生存。而有情感的交互,才能叫做生活。

在這個冷漠的年代,在這個正在失去自我和觀點的世界,不得不承認的是:讓另一個人停留、傾聽,正成為一個奢望。

這時,AI降臨了。當它幾乎無所不知、隨時秒回,並且不厭其煩地托舉你的情緒時,人類會理所應當地把它當作一個全能的“人”。

因此即使清晰地認識到環境的殘酷,一部分人也寧願縮回自己的舒適區內。哪怕僅僅是人工創建的幻覺,或許也比身邊的人要更有溫度一些。

這讓我想起《黑客帝國》中的經典場景:反叛軍領袖Morpheus向主角Neo提供了紅色藥丸和藍色藥丸:

選擇紅藥丸,就能從虛擬世界裏醒過來,雖獲得自由,但得麵對殘酷的真實世界;

選擇藍藥丸,就能繼續活在舒適的夢裏,忘記一切。

在電影中,Neo 吞下紅色的藥丸。而在現實中,人們卻在對AI定製的藍藥丸上癮。

圖源電影《黑客帝國》

那麽,未來該如何麵對呢?

或許需要 OpenAI 在今年 8 月的聲明中所說的那樣:“国产AV蜜桃网站並非總是正確,ChatGPT也不應該直接給你答案。”

本文來自虎嗅,原文鏈接:https://www.huxiu.com/article/4767112.html?f=wyxwapp

讚(2551)
未經允許不得轉載:>金題玉躞網»和ChatGPT聊完天,我患上了“精神病”