機器之心報道
編輯:澤南
讓我們結束這場啞謎吧。
幾個月來,這位聲稱「AI 有意識」的工程師一直在與谷歌經理、高管和人力資源部門爭吵,他的觀點引發了學界廣泛討論,但在谷歌的職業生涯也終于結束了。
據持續跟蹤報道的媒體 Big Technology 本周六稱,公開聲稱谷歌大模型 LaMDA 對話式人工智能具有感知能力的工程師 Blake Lemoine 已被解雇。

6 月,在 Lemoine 就他因為「AI 人權」的擔憂聯系美國參議員辦公室,并聘請律師代表谷歌 AI 對話系統 LaMDA 后,谷歌因違反保密協議給了 Lemoine 帶薪休假的待遇。
谷歌發言人 Brian Gabriel 本周五通過電子郵件向 The Verge 發送了一份聲明,部分證實了這次解雇,其中說道:「我們希望 Lemoine 一切順利。」該公司還表示:「LaMDA 已經通過了 11 次不同的審查,我們在今年早些時候發表了一篇研究論文,詳細介紹了其負責任的開發工作。」谷歌堅稱其「廣泛地」審查了 Lemoine 的說法,發現這些說法「完全沒有根據」。
這與許多人工智能專家和倫理學家的態度一致。很多學者認為,鑒于當今的技術,Lemonie 的主張應該是不可能的。這名谷歌工程師曾聲稱,經過與 LaMDA 模型長期對話,他相信此 AI 已不僅僅是一個程序,它擁有了自己的想法和感受,而不是像原設計那樣僅產生接近真人對話能力的程度。

Blake Lemoine 曾在美國陸軍服役。
Lemonie 認為,因為 AI 存在意識,因此谷歌研究人員應該在對 LaMDA 進行實驗之前征得 AI 自身同意(Lemoine 本人被指派測試人工智能是否會產生仇恨言論),他在自己的 Medium 博客賬戶上發布了大量與 AI 對話的內容作為證據。
今年 1 月,超過 50 多位谷歌研究者參與撰寫的論文《LaMDA: Language Models for Dialog Applications》完整介紹了語言模型 LaMDA。論文展示了 AI 在接近人類水平的對話質量以及在安全性和事實基礎方面具有顯著改進。LaMDA 通過微調一系列專門用于對話的、基于 Transformer 的神經語言模型構建,具有多達 1370 億個參數,在對話時,模型還可以引用外部知識源作為參考。

谷歌表示,預訓練的 LaMDA 模型已被廣泛應用于自然語言處理研究中,包括程序合成、零樣本學習、風格遷移等方向。
在 Lemoine 事件被媒體廣泛報道之后,很多 AI 領域學者紛紛亮出了自己的觀點,前特斯拉 AI 總監 Andrej Karpathy 認為大模型表現出有意識的樣子「細思恐極」,而在紐約大學教授 Gary Marcus 看來,LaMDA 肯定毫無感知力。
大多數人工智能專家認為,該行業距離讓計算機獲得認知能力還有很長的路要走。
以下是谷歌的完整聲明,其中還提到了 Lemoine 指控該公司沒有適當調查他的說法:
正如我們分享的人工智能準側一樣,谷歌非常重視人工智能的發展,并始終致力于負責任的創新。LaMDA 已經通過了 11 次不同的審查,我們在今年早些時候發表了一篇研究論文,詳細介紹了其負責任的開發工作。如果有員工像 Blake 一樣對我們的工作表示擔憂,我們會對其進行廣泛審查。我們發現 Blake 聲稱 LaMDA 有知覺的觀點是完全沒有根據的,并與他一起努力澄清了好幾個月。
這些討論是幫助我們負責任地創新的開放文化的一部分。因此,令人遺憾的是,盡管在這個話題上進行了長時間的討論,Blake 仍然選擇持續違反明確的就業和數據安全政策,其中包括保護產品信息的需要。我們將繼續精心開發語言模型,并祝 Blake 一切順利。
原文地址:http://www.myzaker.com/article/62dc1c2b8e9f093f272ced95