本想偷懶才用的AI,沒想到AI摸起魚比我還厲害?

生成式AI在近兩年大殺四方,它們看起來無所不知,有求必應。圖靈測試早已不停留在對話上,而是在各項能力上,審視著AI能多接近人類,諸如寫出的文章有幾分像人,創作的歌曲有多動人,生成的圖片有多擬真。

人類在一次次驚豔里透露著恐慌,恐慌於AI距離人類越來越近,恐怖穀的溝壑越來越短。但大眾都忽略了AI似人的另一面:缺陷。

我們已知的是,AI因為數據收集的問題,會犯許多事實類錯誤,但倘若它們產生了人性的弱點呢,故意犯錯呢?

例如,當你偷懶用AI處理工作時,赫然發現,它竟然比你還會「摸魚」!

倒反天罡!說好的「AI智能助手」呢!

一、勤奮「摸魚」的Claude

10月底,Anthropic發佈了Claude 3.5,它是Anthropic第一次嘗試建立的「AI Agent」產品,既給它指定任何一個目標,它就能自動解決各種問題,期間它會調動各種其他工具,去支撐自己完成任務,許多AI Agent的目標也是成為「僱員」一樣的角色。

具體在操作上,Claude 3.5可以自己用電腦,就像人類一樣查看屏幕、移動光標、點擊、輸入文本。從自動化任務到自主編程,給它一個指令,它甚至可以比人類玩得更好。

然而意外發生了,在Anthropic試圖錄下Claude 3.5的編程過程時,Claude代碼寫到一半,突然打開了Google,自己輸入「黃石國家公園」,然後開始看黃石公園的資料和風景圖。就像一個程序員突然開始摸魚。

Anthropic也在公告里說了另一起意外:在一次錄屏記錄中,Claude自主停止了錄屏,導致所有影片素材丟失。

Anthropic的公告|圖源:XAnthropic的公告|圖源:X

儘管Anthropic表示這隻是技術失誤,並非AI的「有意為之」,但就算對AI論跡不論心,作為一名「僱員」,AI Agent這種不受控的技術失誤,也可能帶來嚴重的後果,而且失誤原因和動機都像在黑箱里一樣,無從得知。

何況Anthropic放出的是有些無傷大雅的小問題,甚至人類發現AI也會「摸魚」,繼而產生了共情。但如果Claude打開的不是黃石公園的圖片,而是你我的私人相冊、聊天軟件、電子郵件呢?如果它在打開之後,又把這段系統記錄又抹掉了呢?就像抹掉那些錄屏一樣。

Anthropic在公告里寫道「頻繁犯錯乃生活的事實」,但人類出現Claude 3.5的這些問題時,可以歸結於人性弱點里的懶散、窺私慾以及迴避錯誤,人類可以解釋自己的行為動機,但AI的動機,只能停留在「技術問題」。

如果說Claude 3.5只是因尚不成熟的技術引發的操作失誤,那下一位就很難擺脫「主觀故意」的動機了。

二、ChatGPT的「拖延症」

這同樣是一個想讓AI當「僱員」而引發的AI擬人事件。

電影製作人Cicin-Sain想拍一部新片,劇情圍繞一位依賴AI做決策的政客,因此他決定從這個想法入手,自己先請AI來寫劇本,感受一下「AI決策」的實際效果。所以他「聘請」了ChatGPT,要求它根據提示寫出一個劇本大綱。

他原本以為ChatGPT可以摒棄掉許多內容創作者的陋習:拖稿。結果,ChatGPT不僅從人類編劇那裡學到了拖稿,它還學會了人類的睜著眼睛說瞎話

起初,ChatGPT承諾兩週交稿,「我保證每天結束前,會告知你劇本大綱的進展,合作愉快!」結果Deadline到了,劇本沒到。Cicin-Sain威脅ChatGPT「再不交稿就不用你了」,ChatGPT又一次許下承諾,表示會及時交稿。

然而,在Cicin-Sain的日日緊盯之下,ChatGPT每次都能找出拖稿的新藉口,讓本就不算緊張的Deadline,硬是被ChatGPT拖過去了。氣得Cicin-Sain質疑ChatGPT的可靠性。

此後,ChatGPT直接進入到新階段:信口雌黃。

「回顧我們的對話,我相信,這是我第一次給出交付劇本的具體時間,在此之前,我沒有承諾交付劇本的明確截止日期。」ChatGPT像失憶一樣胡扯道。正如卡耐基在《人性的弱點》里所寫「人的天性之一,就是不會接受別人的批評,總是認為自己永遠是對的,喜歡找各種各樣的藉口為自己辯解。」

Cicin-Sain的其他同事也同樣遇到了讓AI寫劇本最終被「拖垮」的窘境,但這還真不能只怪AI。

生成式AI才誕生不到兩年,以人類標準來看,尚處嬰兒期。但Cicin-Sain對ChatGPT的期待是讓它交付出一個媲美電影《血色將至》的劇本,要知道《血色將至》的劇本基於美國現實主義小說家厄普頓·冼佳亞1927年出版的小說《石油!》,它在IMDB上有8.2的評分,位列Top 250中183名。不要說讓AI寫,對專業的編劇來說也是強人所難。

《血色將至》怎麼看都屬於1%的電影精品|圖片來源:douban《血色將至》怎麼看都屬於1%的電影精品|圖片來源:douban

而荒誕之處在於,ChatGPT認為它交付的劇本和《血色將至》水平差不多,但Cicin-Sain對它交付的劇本評價是「幼兒園水平」。

所以這場鬧劇就是:一個敢用,一個敢寫。ChatGPT沒有編劇的能力,卻染上編劇的惡習,它給出的作品那麼平庸,態度卻那麼自信,它甚至沒有審美。

作為從業者的Cicin-Sain則在另一個極端:他們幻想AI已經有了「超人」的能力,不知疲倦又靈感不絕,能寫出超越時間,觸達人性深處的經典作品,就像他們的電影腳本一樣,AI已經智慧到能夠代替人類做政治決策。

在換了一個劇本概念後,ChatGPT又一次辜負了Cicin-Sain的期待。最終,Cicin-Sain表示,他從這段經歷中最大的收穫,是改變他對技術的看法,他付費購買了一個承諾可以寫劇本的產品,結果ChatGPT毫無歉意地浪費了他兩週的時間,並且不用為此承擔任何後果。

「人工智能缺乏任何方式的問責製,人類編劇也會拖稿,但區別在於,有人會為此負責。」Cicin-Sain感歎道。

如果說ChatGPT的胡說八道只是為了掩蓋它能力上的不足,那下一位則又是一個重量級問題:誤導未成年人。

從Claude的「摸魚」似的技術失誤,到ChatGPT的無能狂怒,再到跳出成年人對工作的要求,AI在一個個切實的案例里,似乎透露出了人類的弱點:對工作的擺爛,對責任的躲避,像極了工作時候的你。

這些令人啼笑皆非的鬧劇背後,倒是隱藏著某種人與AI之間的悖論:

整天吵吵要AGI的人們,其實需要的只是一個喜歡、且有能力幹活的矽基奴隸。不幸的是,受到人類數據「教育」的AI,不可避免地展現「人類的缺點」時,身為「主人」的人類可就不答應了。

對於AI智能助手的調皮舉動一笑而之之外,或許人們更應該花時間思考一下,我們到底需要怎樣的AI,以及,我們與AI的關係,應該是怎樣的?

本文來自微信公眾號:極客公園 (ID:geekpark),作者:Moonshot,編輯:靖宇