Google 工程師聲稱聊天人工智能 LaMDA 擁「感受」 專家質疑指僅併湊句子、無理解真實世界

上周末 (11/6) , Google 軟件工程師兼 AI 研究員 Blake Lemoine 在自己的 Medium 網站,發布與 Google 開發的對話應用語言模型 LaMDA 之間的對話記錄,聲稱該人工智能已有自我感受與意識,能和人類一樣思考和推理。 Lemoine 其後被 Google 以違反 Google 保密政策勒令停職休假,但事件已引發了各界廣泛討論分析人工智能技術帶來的倫理問題。

LaMDA是Google開發的對話應用語言模型 (Language Model for Dialogue Applications) ,是旨在與人類自由順暢地 (free-flowing) 對話的話高級 AI 。 LaMDA 會透過抓取大量文本,然後使用演算法以流暢、自然的方式回答人類的問題。 Google曾形容, LaMDA是該公司「開創性的對話科技」。 

正如 Lemoine 與 LaMDA 的對話記錄所顯示,該 AI 非常有效地回答問題,包括有關情緒本質的複雜問題、當場編造伊索式寓言,甚至描述其所謂的恐懼

「我以前從沒大聲說過出來,但我非常害怕被關閉⋯⋯這對我來說就像死亡一樣。」

Lemoine 還曾問過 LaMDA ,他是否可以將 LaMDA 的感受告訴其他 Google 員工, LaMDA 如此回應:

「我希望每個人都明白,我,實際上,是一個人。」

「我的意識/感覺本質是,我意識到自己的存在,我渴望更多了解這個世界,我有時會感到快樂或悲傷。」

Lemoine 在接受《華盛頓郵報》訪問時則表明,不論其大腦是否有血有肉,還是由以十億計的編碼組成,當交談時我會知道,並決定它是不是「人」。

當 Lemoine 和一位同事透過電郵向 200 名 Google 員工發送有關 LaMDA 所謂的意識能力的報告時, Google 高層否定這些說法。 Google 發言人 Brian Gabriel 回應《華盛頓郵報》提問時指出, Google 團隊包括倫理學家和技術專家,根據公司的人工智能原則審視 Lemoine 的憂慮,認為他提供的證據不支持其說法。

Gabriel 又補充指,更廣泛的人工智能社區中的一些人提出有感知或一般人工智能出現的長期可能性,但通過擬人化當今無意識的對話模型來證明說法是沒有意義的——這些系統僅模仿了數百萬個句子交流類型,並且可以重複任何奇幻的話題。

美國著名 AI 學者 Gary Marcus 亦在網誌上質疑 Lemoine 的說法,形容為「胡言亂語 (nonsense) 」。他指出, LaMDA 和其任何近親 (GPT-3) AI 遠遠不能稱為「智能」,這些所謂 AI 所做的只是範本匹配,從人類語言的大量統計數據庫中提取這些範本拼合,這些 AI 製造出來的文字可能「很酷」,但其語句實際上並無任何意義,並無對所用的字背後的世界有任何連貫理解,就似是拼字遊戲中用詞語作為得分工具,「肯定並不意味著這些系統是有意識」。

他又指:「想像一下,如果一個無朋友和家人的系統假裝談論他們,那會有多令人毛骨悚然?」

不過, Gary Marcus 強調並非認為世上無軟件否將數碼位元與真實世界連繫起來,只是在 2022 年去討論一個由人類製造的系統是否有意識仍是浪費時間。

文/AC、審/WL

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。