又一巨頭放任AI軍事化!Google「撕毀」不將AI用於開發武器的承諾
來源:財聯社
財聯社2月5日訊(編輯 瀟湘)繼OpenAI、Meta等美國人工智能領軍企業放任自家模型用於軍事目的後,Google近來也「偷偷摸摸」地加入了這一陣營。
據當地媒體週二發現,Google已從其人工智能原則中刪除了一段承諾避免將AI技術用於武器等潛在有害應用的承諾。
該公司似乎更新了其公開的AI原則頁面,刪除了上週還存在的名為「我們不會追求的應用」的部分——例如「造成或可能造成整體傷害的技術」,包括武器。
Google高級副總裁James Manyika和人工智能實驗室DeepMind負責人Demis Hassabis隨後在一篇博客文章中,為這一舉措進行了辯護。他們認為,企業和政府需要在「支持國家安全」的人工智能方面進行合作。
該博客文章表示,隨著技術的發展,該公司於2018年發佈的最初的人工智能原則,需要進行更新。
「數十億人在日常生活中使用人工智能。人工智能已經成為一種通用技術,也是無數組織和個人用來構建應用程序的平台,」文章稱,「AI已經從實驗室的一個小眾研究課題,轉變為一種像手機和互聯網一樣普及的技術。」
值得一提的是,這篇博客文章是在Alphabet週二發佈Q4報告之前不久發佈的。最終財報顯示,Google去年四季度的業績弱於市場預期,並導致其股價在盤後下跌。
又一家「撕毀承諾」
毫無疑問,此番Google在人工智能原則上措辭變動,將令其成為最新一家放任向AI軍事化靠攏的美國人工智能公司。
正如財聯社去年曾報導過的那樣,矽谷在數年前還對五角大樓避之不及,但如今隨著AI技術的發展,兩者之間卻似乎正在建立更為深層次的聯繫。

Meta在去年11月初已表示,將允許從事國家安全工作的美國政府機構和承包商,將該公司的人工智能模型Llama用於軍事目的。此舉無疑改變了Meta此前禁止將其AI技術用於軍事領域的方針政策。
OpenAI與美國國防科技初創公司Anduril Industries在去年12月則共同宣佈,雙方將建立戰略合作夥伴關係,以開發和負責任地部署用於國家安全任務的先進AI解決方案。這是OpenAI正式向軍事領域邁出了實質性的一步……
而此番Google的轉變則更為令人們感到唏噓。
事實上,早在人們對人工智能引發倫理問題的興趣高漲之前,Google創始人謝爾蓋·比連和拉利·佩奇就曾表示,他們的公司座右銘是「不作惡」。當該公司於2015年重組為Alphabet時,他們的口號也依然是「做正確的事」。
前Google道德人工智能團隊的聯合負責人、現任人工智能初創公司Hugging Face首席倫理科學家Margaret Mitchell表示,刪除「傷害」條款可能會對Google開展的工作類型產生影響。
她說:「刪除該條款將抹去Google許多人在人工智能道德領域所做的工作,更成問題的是,這意味著Google現在可能會致力於直接部署可以殺人的技術。」
長期以來,Google員工一直在爭論如何平衡人工智能領域的道德問題和競爭態勢,尤其是OpenAI的ChatGPT的推出讓這家搜索巨頭倍感壓力之際。2023年,一些Google員工便曾對外表達了擔憂,認為該公司在人工智能領域重振雄風的動力可能導致道德失範。