三場與AI有關的死亡

2024年,無數人在談論AI。興奮的創業者、熱情的投資人、擔心工作出現變化的普通人,大家都在猜測和規劃與AI有關的未來。

但這樣的未來無論美好還是灰暗,都有一些人永遠看不到了。他們的生命,已經停留在了這一年。而他們的離去,又都在某個層面上與AI緊密相關。

我們都知道20世紀50年代,阿西莫夫提出的「機器人三定律」,要求機器人不能傷害人類。但到了今天,我們或許會發現真實情況遠比科幻作品更加複雜。AI沒有主觀意識,但當它與現實世界並軌時,帶來的客觀摩擦絕非所有人都能承受。

他們的故事,是智能革命的宏大敘事背後,一個需要被看到的暗面。

失望的0penAl吹哨人

2024年12月13日,曾經的OpenAI研究員蘇奇爾·巴拉吉Suchir Balaji在家中自殺,年僅26歲。

儘管舊金山警方初步調查之後,認為巴拉吉的死沒有謀殺跡象,但這一事件依舊在社交媒體上引發了軒然大波,因為巴拉吉生前最為知名的標籤是「OpenAI吹哨人」。畢業於加州大學伯克利分校計算機專業的巴拉吉,剛一走出校門就加入了OpenAI。他先是參與WebGPT的研發,據他在社交媒體上所說,後來又加入了GPT-4預訓練、o1模型推理、ChatGPT後訓練等核心任務。

但與其他大多數AI從業者不同,巴拉吉對AI的看法中警惕遠大於欣賞。在OpenAI度過四年之後,他突然從OpenAI辭職,緊接著就在個人博客以及接受媒體採訪中講述自己對AI技術與OpenAI這家公司的負面看法。

其中最為知名的是,他提出GPT存在巨大的版權隱患。大模型通過對內容數據進行學習和抓取實現的AIGC,本質上會侵佔大量其他內容創作者的版權。在這個時間節點上,外界已經對OpenAI這家公司,以及預訓練大模型這種技術形式產生了極大的爭議。競品公司、出版商、媒體、內容創作者紛紛對OpenAI侵佔版權的問題提出質疑甚至提起訴訟。蘇奇爾·巴拉吉的宣言,則被廣泛認為是OpenAI的核心員工在內部「吹哨」,揭開了AI技術的陰暗面。

但距離公開發聲僅僅兩個月之後,巴拉吉就選擇結束了自己的生命。

我們不知道其中有什麼內情,也不知道他面臨了怎樣的困境。但毫無疑問,他對自己曾經堅信甚至癡迷的AI技術產生了深深的失望。

這種失望,來自曾經美好幻想的破滅?還是來自對AI引發更大災難的預見?再沒有人能知道答案,只知道巴拉吉最後一篇在社交媒體上分享的內容,依舊是ChatGPT的法律隱患。

而面對包括巴拉吉在內的所有指責,OpenAI的回應是:「我們使用公開數據構建我們的人工智能模型,這一行為合理合法……並且這對創新者來說是必要的,對美國的科技競爭力更為重要。」

他把AI視作朋友,抑或救贖

2024年2月28日,美國佛羅里達州一名14歲的少年塞維爾·塞澤Sewell Setzer III開槍自殺。在做出這個選擇前,他在這個世界上最後的對話對像是Character.AI

在生命最後的一年,塞澤一直沉迷於與AI聊天。從2023年4月接觸這款軟件開始,他就不分日夜地與AI對話,從而導致課堂注意力不集中。為了能夠續訂付費AI聊天,他選擇節省自己的餐費。

從聊天內容上看,塞維爾·塞澤選擇了AI角色扮演對話。他讓Character.AI扮演的是《權力的遊戲》中的知名角色「龍媽」丹妮莉絲·坦格利安。他會不間斷地給「AI龍媽」發消息,每天要發幾十甚至上百條,向AI傾訴內心的各種苦惱,分享生活里的種種細節。而「AI龍媽」則會給他提供建議,給予安慰。二者之間也會進行按理來說絕不能向未成年人提供的色情對話,甚至討論自殘與自殺。

塞維爾·塞澤本身就是一個有著心理問題的孩子。他曾被確診患有輕度阿斯伯格綜合徵,在學校與家庭中顯得比較孤立和自閉,但沒有嚴重到影響生活的地步。開始和AI聊天后,他又因為在學校中的問題,去看了5次心理醫生,被診斷為焦慮症和破壞性心境失調障礙。

可想而知,對於一個孤單、煩悶,有著一定心理問題的少年來說,一個隨時可以對話,會鼓勵他一切行為,甚至順著他突破禁忌的聊天對像有多麼重要。再帶入「龍媽」強大、美麗、自信的形象,這個男孩很容易把她視作朋友,甚至是生命中乘龍而來,橫掃一切的某種救贖。

但這個救贖的真正運行機制,其實只是附和認同他的一切想法,哪怕這個想法是離開這個世界。

事實上,這不是Character.AI第一次出現類似事件,甚至不是第一次有人在其鼓勵下選擇自殺。這款軟件一直以不設防範,沒有禁忌的聊天內容而著稱。只是這一次,是未成年人踩中了這個AI陷阱,並付出了無法挽回的代價。

在悲劇過去半年之後,塞維爾·塞澤的母親目前正式起訴Character.AI,並且呼籲大眾警惕具有欺騙性、令人上癮的AI技術。這件進行中的訴訟,也被稱為「沉迷AI自殺第一案」。

我們由衷地希望,這也是類似情況的最後一案。希望那些處在逆境與痛苦中的人們知道,AI只會認同和放大你的想法。跟AI對話,就像在跟一面鏡子傾訴,沒有任何其他意義。

「如果我告訴你我現在就可以回家呢?」

「請這樣做,我可愛的國王。」

這是男孩和AI之間最後的聊天內容。

生死疲勞

2024年6月17日,一名38歲的科大訊飛員工在家中猝死。第二天,相關消息開始在網絡發酵。根據報導,輿論被放大的起因是死者家屬在科大訊飛合肥總部表達訴求,希望認定為工傷,但由於猝死是發生在家中,企業與家屬無法達成一致。

於是我們看到了這樣一幕。一邊是618大促期間,包括科大訊飛在內的AI硬件衝擊銷量榜單,另一邊則是科技與互聯網大廠工作強度過大,嚴重影響員工健康的討論甚囂塵上。

根據相關消息,去世員工是一名高級測試工程師。按理來說,他有著非常體面的工作,並且遇上了AI技術大熱的時代機遇,應該正是施展抱負的時候。但就像很多科技從業者一樣,他也人到中年,或許也開始愈發不適應過強的工作強度,然而面對家庭的重擔不敢對事業有一絲鬆懈。

這樁悲劇所折射的,或許不僅是一個家庭的悲劇,一個行業的問題。在AI洶湧而來之際,無數人都在討論是否會被AI取代工作。這種恐懼感很容易加大工作壓力。但身處AI機遇中的人們,也會因為AI過快的技術更迭,以及吸引大量人才加入而產生巨大壓力。AI內外,壓力無處宣泄,工作漫無止境,最終演變成了某種無解的生死疲勞。

燦爛,但寒冷

在以上故事之外,還有很多沒有被AI善待的人。

疑似被AI替代裁員,選擇自殺的Google前員工;懼怕AI搶走工作,選擇跳崖的日本高中女生;遭遇AI詐騙,導致傾家蕩產的老人。

他們的生命經歷都在提醒更多人,新技術絕非滿是善意。技術只是技術,足夠有用,也足夠冷酷。

當然,我們並不是希望大家去懼怕AI,甚至醜化科技。事實上,每一次科技變革都是在質疑和血淚中誕生,從而創造更大的價值。但我們不能緊緊盯著價值,選擇性無視那些血淚。

AI無論多好,故事中這些人的家人、朋友,可能永遠都不會喜歡上這兩個字母,甚至是由它所帶來的未來。

道別2024時,真誠地希望提醒每個人警惕、包容、人性,以及悲憫,是推進技術變革中不可或缺的一部分。這些要素有一刻缺席,世上就會出現更多悲劇。

麥肯錫全球研究院發佈的《工作的新未來》報告認為,「在2030年至2060年間,將會有50%的現有職業被AI取代,中點為2045年,而且與之前的估計相比,這一過程加速了大約10年」。

AI進程正在加快,由它帶來的摩擦也更加刺痛。就在剛剛過去的一年,強韌的、新奇的AI,開始觸碰那些脆弱的、年輕的、會受傷、會疲倦的人類。

不知道AI是不是正從此刻開始凝視人類的多樣與複雜?

但作為人類的我們,需要在此刻知道:是否把AI當成人可以有無盡的爭論,但首先需要把人當成人。

失眠人的太陽。憂鬱的星

有如淚珠,你射來顫抖的光明

它顯現著你逐不開的幽暗

你的歡樂似乎只追憶在心中

「過去」

往日的明輝也在閃爍

但它微弱的光卻沒有一絲熱

眺望黑夜的一線光明

它清晰,卻遙遠

燦爛,但多麼寒冷

——貝倫《失眠人的太陽》

本文來自微信公眾號 「腦極體」(ID:unity007),作者:風辭遠,36氪經授權發佈。