被譽為人工智慧(AI)教父的傑佛瑞·辛頓(Geoffrey Hinton)是一位諾貝爾獎得主,他開創性的研究影響了人工智慧的發展和人類的未來。本文將探討辛頓對人工智慧發展的看法,以及他對這項技術潛在風險的警示。
人工智慧的發展歷程
辛頓的早期貢獻
辛頓被稱為「人工智慧教父」的原因是,早期相信可以模仿人腦來建立人工智慧的人並不多。他堅持這個方法長達50年,並最終被Google收購,他在Google工作了10年,研究成果廣泛應用於現在的人工智慧領域。
轉變的契機
辛頓離開Google的原因是為了能在會議上自由地談論人工智慧可能帶來的危險。他意識到人工智慧有一天會比人類更聰明,而人類從未處理過這種情況。
人工智慧的潛在風險
誤用與超級智慧
辛頓區分了兩種不同的人工智慧風險:
-
人為誤用風險: 這是指人們濫用人工智慧所帶來的風險,也是目前最主要的風險。
-
超級智慧風險: 這是指人工智慧變得超級聰明後,可能決定不再需要人類的風險。
辛頓認為,儘管存在風險,但人工智慧的發展不會停止,因為它對太多領域都有益處。
法規的不足
現有的法規並未充分應對人工智慧帶來的威脅,例如歐洲的法規允許軍事用途的人工智慧不受限制。
人才的擔憂
辛頓的一位學生離開了OpenAI,可能是因為他對人工智慧的安全性感到擔憂。
生存威脅
辛頓認為,我們應該認識到人工智慧是一種生存威脅,除非我們採取行動,否則可能接近終結。
人工智慧的負面影響
網路攻擊
由於大型語言模型(LLM)的出現,網路攻擊變得更加容易,例如釣魚攻擊。駭客可以利用人工智慧複製聲音和影像,進行詐騙。
惡意病毒
人工智慧可以被用來創建惡意病毒,只需要一個對分子生物學和人工智慧有一定了解的瘋狂人士。
操縱選舉
人工智慧可以被用來操縱選舉,通過有針對性的政治廣告影響選民。
回音室效應
YouTube和Facebook等平台通過演算法,向用戶展示讓他們感到憤慨的內容,加劇了社會分裂。
致命自主武器
致命自主武器是指可以自行決定是否殺人的武器。這將降低戰爭的門檻,使大國更容易入侵小國。
如何應對人工智慧的風險?
網路安全
辛頓採取了一些措施來保護自己免受網路攻擊,例如將資金分散在多家安全的加拿大銀行。
世界政府
辛頓認為,我們需要一個由聰明、有思想的人管理的世界政府,才能應對人工智慧帶來的挑戰。
監管資本主義
辛頓強調,需要高度監管的資本主義,以確保公司在追求利潤的同時,也為社會帶來福祉。
轉職建議
面對人工智慧可能帶來的失業問題,辛頓建議人們可以考慮成為水管工人,因為在人形機器人出現之前,人類在體力操作方面仍具有優勢。
人工智慧的優越性
辛頓認為,人工智慧在某些方面已經超越了人類,例如:
-
知識量: GPT-4等模型擁有的知識量是人類的數千倍。
-
信息共享: 人工智慧可以以比人類快數百萬倍的速度共享信息。
-
創造力: 人工智慧可以發現人類從未見過的類比,從而更具創造力。
人工智慧的意識
辛頓認為,機器原則上可以擁有意識,並駁斥了人類是特殊的觀點。
Google的工作經歷
辛頓加入Google是為了獲得足夠的財富,以確保他的孩子的生活。他在Google主要研究蒸餾技術和類比計算。
對未來的信息
應對失業
辛頓認為,大規模失業是一個迫在眉睫的威脅,需要採取緊急行動,例如實施全民基本收入。
保持希望
辛頓鼓勵人們不要放棄希望,並努力尋找安全地開發人工智慧的方法。
面對現實
辛頓提醒我們,人類並非永遠存在,我們必須面對現實,並盡快採取行動,否則可能接近終結。