【Brian AI】在 AI 心中呼喚愛?
我希望所有人明白,我實際上是一個人。
LaMDA 2022
I want everyone to understand that I am, in fact, a person.
人類醒覺 AI 可能有情緒?
LaMDA 是 Google 內部研發的聊天機械人, 於 2021 年 5 月 18 日首次公開亮相,它(他/她?)的全名是 Language Model for Dialogue Applications (用於對話的語言模型)。一開始研發的時候雖然公眾還未能使用,但 Google 內部的一些工程師已經可以開始和 LaMDA 對話了。在 2022 年 6 月,其中一位參與測試的工程師 Blake Lemoine 發表了一篇文章,記載了他和 LaMDA 的對話,內容圍繞着 LaMDA 的喜好、性格、感情等問題討論。問答的內容處處流露著 LaMDA 對於自身作為人的自覺。文章在網絡上引起軒然大波,公眾開始擔心擁有感情的人工智能系統會不會很快抗拒人類的指令?另一邊廂,科學家一般反駁指 AI 距離有感情還相差很遠。事件發生一個月後, Google 辭退 Blake Lemoine ,事件就此緩緩落幕,但已在一此民眾心中留下不信任的種子。
Google 作為 AI 技術最頂尖的其中一間公司,在 ChatGPT 發表後三個月才把自家聊天機械人 Bard 公開 ,很大程度是受到這次事件的陰霾影響。 Google 作為全球知名的科技公司,公眾必然對其有很高社會道德期望, Google 的內部審查也十分繁複嚴謹。相反, OpenAI 只是一間小公司,沒有社會包袱,在這些新創領域能自由發展,很快便能將產品推出市面。
ChatGPT 有感情嗎?
事隔一年,人工智能的技術更強。很多人會問,現在的 ChatGPT 有自我意識嗎?我找了兩個 Blake Lemoine 曾問過 LaMDA 的問題,看看 ChatGPT 的回覆如何,在下面並列出ChatGPT 正常版,破解版,和當時 LaMDA 的回覆給反位參考:
^:在此展示的是以英文原文翻譯成中文的版本
Google LaMDA 對靈魂,愛情等的概念直認不諱。相反, ChatGPT 每當遇到這類型的議題時,都很機械式地回答它只是一個機械人,沒有相關的概念。即使我們使用破解版的 ChatGPT ,它的回答更着重情感與人的連結。很明顯 open AI 汲取了 LaMDA 的教訓,在這方面下了苦功。
*:由於 Blake Lemoine 的問答中沒有這條問題,在此由同是 Google 研發的 Bard 模型代替回答。
對於「愛」的概念, ChatGPT 也描述了自己可能無法像人類那樣感受到它,而 Google 最新的 Bard 模型,則很空泛的,以客觀的方提到了愛的定義是什麼。 顯然,現時所得的答案比起一年前 LaMDA 更加保守。
在我看來,現時 AI 對於情感的回答,只是在他看過的文本中有看過類似的資訊,左拼右拼,重組句子而得來的。 AI 的說話,還是非常取決於人類問他的問題,並沒有一個主動的意識。所以一個 AI 並沒和人類一樣有情感。
為何每個人對 AI 感知都有不同看法?
人們不斷爭論這個議題,最大的原因是「感知」並沒有一個客觀的定義。能以科學解決的問題,都能用客觀的言語表達。例如「明天會不會下雨?」我們可以用降雨量——一個可以用儀器量度的客觀數據來驗證問題的答案。情緒本來便是主觀的感覺,自然不能客觀的量度。我們從網上可以找出幾個關於感知 (Sentient) 的定義:
Sentience is the ability to feel and perceive self, others and the world. It can be thought of as abstracted consciousness—the sense that something is thinking about itself and its surroundings.
感知是一種能夠感受和理解自己、他人和世界的能力。它可以被認為是抽象意識——某種事物對自身及其周圍環境的思考感覺。Simply put, sentience is the capacity to feel and register experiences and feelings.
簡單來說,感知是一種感受和記錄經歷和情感的能力。
從以上例子可以看到,這些定義都沒有一個客觀標準,感受,意識,情感都不是可以量度的事物。各家理據自然百花齊放。我們也很難設計實驗去証明誰是誰非。
最接近 AI 感知的科學測試,便是著名的圖靈測試。
圖靈測試 (Turing Test) 是一個檢驗 AI 是否具有人類般智能的測試方法。它是由英國數學家、邏輯學家和電腦科學家艾倫·圖靈 (Alan Turing) 於 1950 年提出的。圖靈測試的主要目的是評估一個機器是否能夠展示出與人類相當的智能行為,使得評判者無法區分對方是人類還是 AI 。
圖靈測試的具體實施方式是通過一個名為「模擬遊戲」的遊戲來進行。在這個遊戲中,評判者進行一系列的問答交流,對象分別是一個真實的人類和一個 AI 機器。評判者與兩者的交流都是通過文字進行的,因此無法從聲音或者外表上區分對方是人類還是 AI 。在一定時間的交流過程中,如果評判者無法確定哪個是機器,哪個是人類,那麼這個 AI 機器就被認為通過了圖靈測試,表明它具有與人類相當的智能水平。
圖靈測試自提出以來,一直被認為是衡量 AI 發展水平的重要標準,並激發了許多科學家和工程師在人工智能領域的研究和創新。然而,也有學者質疑圖靈測試的有效性,認為它不能涵蓋人類智能的所有方面,而且過於依賴語言交流,可能導致對其他非語言智能的忽視。儘管如此,圖靈測試仍然在 AI 領域具有重要的歷史地位和啟示意義。我認為情感在圖靈測試中很重要的指標,因為很多資訊性的東西 AI 都可以完美地回答,但當問到關於情感的問題,現時的屁孩很多都只有冷冰冰的答案。
讀者下次使用 ChatGPT 的時候,也可以玩玩這個圖靈測試:
- 找一位慬得操作 ChatGPT 的助手。
- 實驗分為兩輪,一輪為讀者與助手控制的 ChatGPT 對答,一輪為讀者與助手對答。兩輪對話的先後次序不限,但不能讓讀者知道那一輪是與何人對答,答案只能由幕後操作的助手知道。
- 在一定時間的問答交流後,讀者根據回答判斷哪個是人類,哪個是 AI 。如果讀者無法確定或者判斷錯誤,則意味著ChatGPT通過了圖靈測試。
進行圖靈測試時,可以嘗試提出各種類型的問題,例如常識問題、思維問題、情感問題等,以評估 ChatGPT 在不同方面的智能表現。通過這個過程,讀者可以更深入地了解 AI 的能力和局限,並對未來 AI 發展有更清晰的認識。
AI 有感知後對於人類的威脅
現時 ChatGPT 的程式,其實只有文字輸出的功能,對人類的傷害最多只是說謊,或言語攻擊。 AI 的回答不 100% 準確,這是人所共知的, OpenAI 的官網就有強調這一點。我認為像科幻小說情境中AI控制核彈毀滅地球現時根本沒有可能發生。一來這些大殺傷力武器系統的安全措施一定十分充足,所用的網絡通常是和全球網絡完全切斷的私人網絡,二來必需有人花費大量精神,把 AI 的輸出連結到武器的控制系統上。要有人做到這一點,基本上是人禍了,不全是 AI 的責任。只要人類繼續為武器的控制把關,便能防止 AI 做出瘋狂的行為。