節目來賓與議題背景
-
本集節目來賓為知名人工智慧懷疑論者、作家及創辦人蓋瑞·馬庫斯(Gary Marcus)。主持人先前與OpenAI的馬克·陳(Mark Chen)討論過GPT 4.5,蓋瑞隨後表示希望提出反駁,認為人工智慧的擴展已接近極限,與OpenAI的說法不同。
-
所謂的擴展定律,指的是投入大型語言模型的運算能力和資料越多,模型的表現就會越好,且呈現可預測的線性或指數增長。然而,現在幾乎所有研究機構都承認,擴展已達到報酬遞減的階段。
擴展定律的興衰
-
蓋瑞在2022年發表了一篇名為《深度學習遭遇瓶頸》的論文,指出擴展將會枯竭,報酬遞減。當時遭到領域內許多人反對,包括埃隆·馬斯克(Elon Musk)等。
-
2022年,OpenAI的傑瑞德·卡普蘭(Jared Kaplan)等人發表論文,聲稱可以從資料量數學式地預測模型的表現,還有所謂的「灰鼠擴展定律」,讓人們非常興奮。許多公司據此投資了數百億美元,認為投入更多資料就能實現人工通用智慧(AGI)。
-
但去年的結果令人失望。GPT 3相較於前一代有明顯進步,GPT 4也不錯,但之後的模型發展不如預期。OpenAI原本的Project Orion計畫失敗,最終推出的是GPT 4.5,且沒有達到所謂的數學定律要求的性能。
報酬遞減與新方向
-
過去人們認為性能和資料量之間存在數學式的可預測關係,現在雖然增加資料仍能讓模型表現稍有提升,但已不符合原先的指數曲線,即擴展不再像以前那樣有效。
-
許多公司都嘗試建立比GPT 4大10倍的模型,希望達到GPT 5的水準,但都沒有成功。現在他們開始談論擴展推理時間運算,但這是另一回事。
-
雖然在某些問題上,增加推理時間運算似乎有幫助,但最好的結果幾乎總是出現在數學和程式設計等領域,這些領域可以生成合成資料並驗證答案。
模型的推理能力與黑盒問題
-
有些人認為現在的模型具有推理能力,但蓋瑞認為它們只是在模仿人類的推理模式,推理深度不夠,仍會犯很多愚蠢的錯誤。
-
這些模型被稱為黑盒,即我們知道輸入和輸出,也知道如何計算,但不了解系統如何得出結果。例如,沒人能清楚解釋為什麼03比GPT 4更容易產生幻覺。
-
解釋性是一個相關概念,像GPS導航系統這樣的人工智慧具有良好的解釋性,但這些黑盒模型缺乏解釋性,我們不知道它們使用的資料庫,也不知道如何修復問題。
模型的進步與限制
-
主持人認為GPT 4之後模型有了很大進步,例如03能對攀岩照片進行分析並給出有用的教練提示,Claude能快速編碼退休計算器,還有博士將自己的見解加入模型訓練。
-
蓋瑞則指出,雖然在一些基準測試上有進步,但存在資料污染問題,且整體表現並沒有達到人們期望的量子躍進。模型仍存在幻覺、推理錯誤等問題,可靠性不足。
對產業的影響與未來預測
-
蓋瑞認為,雖然擴展尚未完全達到極限,但報酬遞減,繼續投資大型GPU數據中心可能不划算。不過,人們可能還會再嘗試一次。
-
他預測今年可能不會出現真正的GPT 5,除非有真正的創新。他認為大型黑盒LLMs是錯誤的假設,科學最終會自我修正。
-
這可能導致巨大的金融崩潰,因為LLMs的估值不合理。但LLMs仍有一定用途,不會消失。
人工智慧的風險
-
人工智慧不一定需要達到AGI才值得關注。現在的人工智慧在病毒學等領域已能幫助惡意行為者,且一些AI程式被釋放時沒有足夠的防護措施。
-
開源AI也令人擔憂,惡意行為者可能利用它們進行錯誤資訊傳播、生物學研究等惡意活動。
-
封閉公司也不是道德的行為者,例如OpenAI可能會成為監視公司,利用用戶的私人資料牟利。
通往AGI的道路
-
蓋瑞認為,目前驅動生成式人工智慧的神經網絡類似於系統一認知,快速、自動但容易出錯。而系統二認知更像古典人工智慧,能明確表示知識並進行推理。
-
這兩種方法自1940年代就存在,但一直相互分離。他主張將兩者結合,即神經符號人工智慧。阿爾法摺疊(Alpha Fold)就是一個神經符號模型,是人工智慧迄今為止最好的成果之一。
-
蓋瑞對籌資進行這方面的研究很感興趣。
結束語
-
蓋瑞推薦了自己的兩本書《馴服矽谷》和《重啟人工智慧》,以及他的Substack網站gary marcus.substack.com,讀者可以在上面獲得更多關於人工智慧的資訊。
-
主持人感謝蓋瑞的到來,並表示期待下一次的對話。