AGI 的9派定義介紹與局限
起先,我也和大家一樣大惑不解,為何要幫AGI分等級?《幽游白書》真人影集預告才剛釋出,難不成這是受到日漫影響,妖力S級、A級……之類的?仔細看了看論文,才發現Deepmind拿出「自駕等級」類比,就像國際汽車工程師學會(SAE)在2021年提出的自動駕駛分級,是從「駕駛輔助」到「完全自動」一共分作L1至L5五級,AGI也應該理當分級才是。嗯,確實有幾分道理。
在武斷地做出AGI的等級區分之前,Deepmind的論文先對過往AI大大們所提出的「AGI定義」進行一番指點和討論,來了一場禮貌大回顧。
1. 圖靈測試
先從最OG的「圖靈測試」(Turing Test)回顧起。圖靈在1950年發表了劃時代論文,他預言人類創造出具備智慧的機器的可能性。由於難以確切定義出何謂「智慧」,因此他提出了圖靈測試——也就是一台能與人類對話、並且不被辨別出機器的身分,那就通過了圖靈測試。
但眾所皆知,如今包括GPT在內的許多LLM都已經通過了圖靈測試。但很顯然,它們都還不算真正的AGI。
2. 強AI:擁有意識的系統
「強人工智慧」(Strong AI)是哲學家約翰塞爾(John Searle)提出的概念,他認為在經過適當的編程並賦予正確的程式之後,電腦也算是擁有思維。但某種程度來說,把AGI的構成條件推往更難被定義的「意識」,反倒更難進行討論。
3. 人腦類比
AGI一詞最早出現在馬克古布魯德(Mark Gubrud)在1997年的軍事技術的文章,他定義AGI是「在複雜性和速度上媲美或超越人腦的AI系統」。但Deepmind的論文指出,就算現代機器學習和神經網絡的確受到人腦的啟發,但未必就代表AGI得依照人腦的模式發展。
4. 認知任務達人類水準
這個AGI定義聽起來蠻合理,直到生成式AI的出現。
何謂認知任務?簡單來說,就是非體力活的工作。可是,ChatGPT或Midjourney等工具都已經達到人類的水準了啊。那是不是能說,現在AI已經達到通用人工智慧的等級了呢?(打完收工)
5. 學習能力
倫敦帝國理工學院認知機器人學教授在他的著作《科技奇點》(The Technological Singularity)提出:「AGI是一種不專門執行特定任務的AI,而是能夠學習並執行與人類一樣廣泛任務的AI。」他的AGI框架,更強調了學習和通用的重要性。
6. 具備經濟價值的工作
根據OpenAI 2018年的憲章定義,AGI指的是「在大多數經濟價值工作中超越人類的高度自動系統」。但Deepmind論文認為這個定義有點狹隘,畢竟有許多與智慧相關的工作,並沒有明確的經濟價值,比方說藝術和創造類的工作。
7. 靈活與通用:咖啡測試與其他挑戰
另一位認知心理學科學家、前陣子才狂嗆Yann LeCun的Gary Marcus也有自己的AGI定義。他認為,AGI指的是在靈活性和通用性都具備了相當於或超越人類智慧的AI,他一共列出了五項任務類別,從看懂電影,到會在任何的廚房裡做飯。
Deepmind論文說,這很類似於蘋果的另一位史蒂夫Steve Wozniak曾提出的「咖啡測試」,指的是通用人工智慧,得到任一個美國家庭,找到咖啡機、找到咖啡豆、加水、找到杯子、到按下正確的按鈕,最終泡好一杯咖啡才算合格。
8. 人工「能力」智慧
另一位AI大咖,Deepmind創辦人、現又創立Inflection AI在搞另一個聊天機器人Pi的Mustafa Suleyman,在今年也出版了新書《即將到來的浪潮》(The Coming Wave)。裡頭提出人工能力智慧(Artificial Capable Intelligence,ACI)的概念,更著重在AI能做什麼,指出是「具有足夠能力和通用性,以完成開放世界的複雜、多步驟任務的AI系統。」
他還提出他版本的「現代圖靈測試」——他會拿出十萬美元給AI,而假設AI有辦法在幾個月內翻成一百萬美元就算通過。嗯,能做到我也服了。
9. 大型語言模型已是通才
兩位Google研究院的大神Blaise Agüera y Arcas和Peter Norvig最近提出,目前較為領先的大型語言模型(GPT-4、Bard、Llama 2、Claude)都已經算是AGI了。他們認為「通才」是AGI的關鍵屬性,而這些語言模型已經有足夠的通用性,比方可進行廣泛的討論、執行各種任務、處理多模態輸入輸出、多種語言操作等等。
AGI等級:從菜雞到超人
綜上所述,Deepmind論文接著歸納出更實用的「AGI 6大原則」來進行AGI的分級與定義:
重點在於AI能做到什麼,而不是它如何做到;
通用性和能力同樣重要;
認知型任務與學習新事物的能力是衡量的標準;
重點在於潛力而非部署;
生態效度,也就是在真實世界的實用性很重要;
關注在通往AGI的道路,而非單一終點。
好的,如果你看到這邊已經逐漸恍神了,那不妨直接來看AGI的等級表吧!
人類躺平AI才可怕
既然這篇Deepmind論文是以「實用性」作為出發點,那想必AGI的等級就不會只是列爽的。AI熱潮以降不斷出現的各種AI威脅論,大家都是耳熟能詳,只是對話很難聚焦的原因,就在於各方並沒有以相同的定義來作為討論的基礎。
In Silicon Valley, AGI is a prophetic inevitability, a necessity. The only real question is how to manage the potentially seismic threat of massive planetary disruption that comes with the wholesale adoption of AI.https://t.co/jbVtcDFqr7
因此,這篇Deepmind論文就用了這個新框架,清楚地告訴我們,不同等級的AGI可能引發的風險與威脅。
值得注意的是,AGI的能力高低並不直接與風險的高低有關,反倒是人類在部署AI時,為了偷懶的緣故而賦予AI「自主性」(Autonomy),這才會導致潛在的威脅。這點是人類在應用AI時需要去注意的,畢竟一個高能力但低自主性的AGI,還是相對安全的,因為它的行動仍然受到人類的控制和監督。
好的。看起來這篇Deepmind論文真的把接下來的AI發展,以及可能性的風險講得頗清楚了。不曉得大家是否期待著這樣的未來呢?