“空間智能是人工智能拼圖中的關鍵一環(huán)。”知名“AI 教母”李飛飛曾這樣表示。
近段時間,李飛飛開始把目光瞄準到這一領域,并為此創(chuàng)建了一家初創(chuàng)公司。她曾表示,“大自然創(chuàng)造了一個以空間智能為動力的觀察和行動的良性循環(huán)。”她所在的斯坦福大學實驗室正在嘗試教計算機“如何在三維世界中行動”,例如,使用大型語言模型讓一個機械臂根據口頭指令執(zhí)行開門、做三明治等任務。
我們不難看出,李飛飛口中的空間智能也有大模型的參與。
如今,隨著技術的發(fā)展,LLM 在多個方面表現出超人類智能。然而關于 LLM 的爭議也在不斷增加,其中,LLM 到底有沒有感覺能力,大家意見不一。
近日,李飛飛連同斯坦福大學以人為本人工智能研究所 HAI 聯合主任 John Etchemendy 教授聯合撰寫了一篇文章,文章對 AI 到底有沒有感覺能力(sentient)進行了深入探討。
本文中,我們把 sentient 一詞翻譯成感覺,因為 AI 領域感知一詞通常對應 perception,也不適合翻譯成意識。讀者們有合適的翻譯可以留言討論。
文中駁斥了 LLM 有感覺的說法,李飛飛列舉了大量示例來證明這一觀點。
在提到超級計算機深藍時,李飛飛表示,雖然這款下棋程序可以擊敗世界冠軍,但如果房間突發(fā)意外情況如著火,深藍不會有停止游戲的意識,而人類會有。
同樣地,當人類產生饑餓說出“我餓了”時,人類和 LLM 背后所隱藏的行為鏈條是完全不同的。LLM 只是產生“我餓了”這個字符串的事實,它沒有身體,甚至不可能有饑餓那種感覺。
更進一步,李飛飛認為人類饑餓時,伴隨一系列生理反應,如低血糖、肚子咕咕叫等,而 LLM 無法擁有這些狀態(tài)的主觀經驗,即無法有感覺能力,只是概率性地完成任務而已。
人類有物理軀體,可以感覺一切,但 LLM 沒有,當 LLM 說出類似的“自己腳趾痛”時,大家都不會相信,因為它根本就沒有腳趾,它只是一個編碼在硅片上的數學模型。
李飛飛駁斥 LLM 具有感覺能力
通用人工智能(AGI)是用來描述一種至少與人類在各種方面表現出相同智能的人工智能體的術語,涵蓋人類所展示(或能夠展示)的所有智能方式。這是我們曾經稱之為人工智能的概念,直到我們開始創(chuàng)建在有限領域表現出智能的程序和設備 —— 如下棋、語言翻譯、清潔客廳等。
增加“G”這個字母的必要性,來自于由人工智能驅動系統的普及,但這些系統只專注于單一或極少數任務。
IBM 的深藍是一款令人印象深刻的早期下棋程序,它可以擊敗世界冠軍 Garry Kasparov,但如果房間著火了,它卻不會有停止游戲的意識。
現在,通用智能有點像一個神話——如果人們認為自己擁有它的話,可能就會這么認為。
人類可以在動物界找到許多智能行為的例子,它們在類似任務上的表現遠比人類本身表現更好。智能并非完全通用,但足以在大多數環(huán)境中完成人們想要完成的事情。
如果當人類感到饑餓時,可以找到附近的超市;當房間著火時,則會自主地尋找出口。
智能的基本特征之一是“感覺”,即擁有主觀經驗的能力 —— 比如感受饑餓、品嘗蘋果或看到紅色是什么樣的。
感覺是通往智能的關鍵步驟之一。
于 2022 年 11 月發(fā)布的 ChatGPT,標志著大型語言模型(LLMs)時代的開始。
這立即引發(fā)了一場激烈的爭論,所有人都在討論這些算法是否實際上具有感覺能力。以 LLM 為基礎的人工智能具有感覺能力的可能性引發(fā)了媒體瘋狂報道,也深刻影響了全球一些政策制定的轉向。
最突出的觀點是,“有感覺的人工智能”的出現可能對人類非常危險,可能帶來“滅絕級”的影響或至少是“存在危機”的。畢竟,一個有感覺的人工智能可能會發(fā)展出自己的希望和欲望,而不能保證它們不會與人們相沖突。
李飛飛和 Etchemendy 的主要觀點是反駁“有感覺的人工智能”陣營最常提出的辯護,而該辯護基于 LLMs 可能已經有了“主觀經驗”的能力。
為什么有些人認為 AI 已經獲得了感覺能力
在過去的幾個月里,他們倆與 AI 領域的許多同行進行了激烈的辯論和交談,包括與一些最杰出的和具有開創(chuàng)性的 AI 科學家進行了一對一的深入交流。
關于 AI 是否已經獲得了感覺能力的話題,一直是一個突出的問題。其中少數人堅信 AI 已經具有了感覺能力。以下是其中一位最為積極支持者的論點,相當程度上代表了“有感覺的 AI”陣營:
AI 是有感覺的,因為它能報告主觀經驗。主觀經驗是意識的標志,其特征在于能夠自我所知或所感。例如,當你說“我在吃過一頓美味的飯后感到高興”時,我作為一個人實際上沒有直接證據感覺你的主觀體驗。但既然你這樣表達了,我會默認相信你確實經歷了這種主觀體驗,因此你是有意識的。這種邏輯也被用來推論 AI ??的意識狀態(tài)。
現在,讓我們將同樣的“規(guī)則”應用到 LLMs 上。就像任何人一樣,我無法訪問 LLMs 的內部狀態(tài)。但我可以查詢它的主觀經驗。我可以問“你感到饑餓嗎?”它實際上可以告訴我是或否。此外,它還可以明確地與我分享它的“主觀經驗”,幾乎涉及任何事情,從看到紅色到吃完飯后感到幸福。因此,我沒有理由不相信它是有意識的或不知道自己的主觀經驗,就像我沒有理由不相信你是有意識的一樣。在這兩種情況下,我的證據完全相同。
為什么認為“AI 有感覺能力”是錯誤的
雖然乍看之下這個論點似乎有道理,但實際上是錯誤的。因為李飛飛和 Etchemendy 教授提供的證據在這兩種情況下并不完全相同,甚至差距很大。
當你說“我餓了”時,我得出你正在經歷饑餓的結論是基于一系列大量的情況。首先,是你的報告 —— 你說的話,可能還包括其他行為證據,比如你的肚子咕咕叫。其次,是沒有相反證據的存在,比如你剛吃完五道菜的大餐,就不太可能會說餓。最后,也是最重要的,是你擁有一個像我一樣的物理身體,這個身體需要定期進食和飲水,遇冷會感到寒冷,遇熱會感到炎熱等等。
現在將這與他們二人對 LLM 的證據進行比較。
唯一共同的是報告,即 LLM 可以產生“我餓了”這個字符串的事實。但相似之處就到此為止了。事實上,LLM 沒有身體,甚至不會有感到饑餓那種感覺。
如果 LLM 說:“我的左大腳趾很疼”,人們會得出它左大腳趾確實很疼的結論嗎?答案是否定的,因為它根本就沒有左大腳趾。
同樣地,當它說它餓了時,人們實際上可以確定它并不餓,因為它沒有感到饑餓所必需的生理結構。
當人類感到饑餓時,會感覺到一系列生理狀態(tài) —— 低血糖、空腹發(fā)出的咕咕聲等 —— 而 LLM 根本沒有這些,就像它沒有嘴巴放食物進去,也沒有胃去消化食物一樣。
人們知道這不是真的,LLM 的主張也無法改變這個事實。
所有感覺 —— 饑餓、感到疼痛、看到紅色、愛上某人 —— 都是由 LLM 根本沒有的生理狀態(tài)引起的。
因此,LLM 無法擁有這些狀態(tài)的主觀經驗。
換句話說,它無法有感覺能力。
LLM 只是一個編碼在硅片上的數學模型。
它不像人類那樣是一個具有身體的存在。它不是需要進食、飲水、繁殖、經歷情感、生病和最終死亡的“生命”。
當人類和 LLM 同樣地說出“我餓了”時,背后所隱藏的行為鏈條是完全不同的。
理解人類生成詞序列的方式與 LLM 生成相同詞序列的方式之間的深刻差異,這一點至關重要。
當人們說“我餓了”時,是在報告感覺生理狀態(tài)。
而當一個 LLM 生成序列“I am hungry”時,它只是生成當前提示中最可能的完成序列。它做的事情與在不同提示下生成“I am not hungry”或在另一個提示下生成“The moon is made of green cheese”時完全相同。
這些都不是它本就不存在的生理狀態(tài)的報告,它們只是在概率性地完成而已。
很遺憾的是,具有感覺能力的人工智能時代還尚未到來。
兩位作者認為,研究者還沒有實現有感覺的人工智能,而更大型的語言模型也不會使人們實現這一目標。
如果人類想在人工智能系統中重新創(chuàng)建這種現象,就需要更好地理解有感覺的生物系統中“感覺是如何產生的”。
人們不會在下一個 ChatGPT 的迭代中偶然發(fā)現“感覺”。
在李飛飛轉發(fā)的 X(原推特)下面,大家討論的也是非常激烈,有人表示:“當今的 LLM 有兩種類型:一種是完全基于文本進行訓練,另一種則是基于圖像、文本甚至音頻進行訓練。第一種類型確實不具備所謂的感覺能力,但第二種類型具有物理直覺,因此可以說它具有感覺能力?!?/p>
而另一位網友則追隨 Yann Lecun 的腳步,表示:“一只喵星人的智能程度都遠高于最大型的 LLM。”
參考鏈接:
https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/
https://x.com/drfeifei/status/1793753017701069233