Video thumbnail for 【人工智能】我警告过他们,但是我们正在失控! | AI教父杰弗里·辛顿最新访谈 | 神经网络 | 离职谷歌 | 短期风险 | 存在性威胁 | 回音室效应 | AI军事 | 大规模失业 | 数字智能

AI Godfather Warns: We're Losing Control! Hinton's Dire Predictions

Summary

Quick Abstract

Delve into the insights of Geoffrey Hinton, the "Godfather of AI," in a recent in-depth interview where he discusses his evolving perspective on Artificial Intelligence. From AI optimist to vocal risk advocate after leaving Google, Hinton shares his profound concerns about the technology's potential dangers. This summary highlights the key takeaways from this compelling and historically important conversation.

  • Hinton details his 50-year journey advocating for neural networks, now a cornerstone of AI.

  • He explains why he left Google to freely voice his AI safety concerns, highlighting the ethical dilemmas of working for a company while criticizing its technology.

  • He assesses two primary AI risks: human misuse and the emergence of super-intelligent AI potentially deeming humanity unnecessary.

  • He considers the liklihood that AI will wipeout humanity at between 10% and 20%.

  • He describes potential dangers of AI powered cyberattacks, AI created bio-weapons and AI undermining social institutions.

  • He explores AI's impact on job displacement, with AI taking over common intellectual job functions.

  • He discusses AI's digital intelligence, advantages in knowledge and creative capabilities.

Hinton further discusses AI surpassing human intelligence, the societal impact of AI-driven job losses, the potential for AI-driven social manipulation through echo chambers, and the need for robust regulations to mitigate AI's potential harms, including autonomous weapons.

辛顿与“AI教父”称号

称号由来

大家好,这里是最佳拍档,我是大飞。6 月 16 日,著名播客《CEO 日记》发布了主持人史蒂文·巴特利特对辛顿的深度访谈,这是近期辛顿最深入的一次公开谈话,时长一个半小时。

辛顿被称为“AI 教父”,源于他在一个几乎无人相信的研究方向上坚持了整整 50 年。从 1950 年代开始,学术界存在两种不同的 AI 发展理念。主流观点认为人类智能核心是推理能力,实现 AI 需基于逻辑系统,通过规则操作符号模拟人类思维。而辛顿坚信以大脑为模型构建 AI 系统,因为大脑是产生智能的器官。

早期研究与学生

辛顿并非这种想法的唯一支持者,约翰·冯·诺依曼和阿兰·图灵这两位计算机科学先驱都曾相信神经网络方法。但他们英年早逝,使神经网络方法长期处于学术边缘。不过,辛顿培养出一批后来改变世界的学生,其中最著名的是伊利亚·苏茨克维尔,他们在 OpenAI 等重要 AI 公司发挥关键作用,验证了辛顿 50 年前的预见。

深度学习时代的开启与谷歌经历

AlexNet 与深度学习

2012 年,辛顿和他的学生们开发的 AlexNet 系统在图像识别竞赛中取得突破性成果,标志着深度学习时代正式开始。谷歌随后收购了他们的公司 DNN Research,辛顿以 65 岁高龄加入谷歌,开始了为期 10 年的工业界研究生涯。

离开谷歌的决定

2023 年,75 岁的辛顿做出震惊科技界的决定,离开谷歌公开讨论 AI 的安全风险。离开原因既有个人因素,也有对技术发展方向的担忧。个人方面,75 岁的他想退休,且编程时犯错频率增加让他烦恼。时机选择上,是为了能在 MIT 科技评论组织的会议上“自由发言”。谷歌虽鼓励他留下从事 AI 安全研究,但他认为为公司工作不应说损害公司的话,道德自我审查让他无法完全坦率表达对 AI 风险的担忧。

AI 风险的分类与概率评估

两类风险

在深入讨论具体威胁前,辛顿建立了分析框架,区分两种完全不同类型的 AI 风险:一是来自人类滥用 AI 的风险,二是来自 AI 变得超级聪明、决定不再需要人类的风险。

第一类风险涵盖大部分风险,是短期风险,源于人类使用 AI 技术,包括网络攻击、生物武器、选举腐败、回音室效应和自主杀伤性武器等,本质是人类行为产物,AI 只是工具。

第二类风险是存在性威胁,AI 系统本身变得比人类更聪明,可能决定人类多余。很多人质疑其真实性,但辛顿肯定这是真实存在的。

概率评估

关于第二类风险的概率评估,辛顿承认这是前所未有的情况,因为我们从未遇到过比我们更聪明的东西。学术界存在极端分化观点,他的朋友 Yann LeCun 认为风险微乎其微,坚信人类能控制这些系统;另一个极端是埃利泽·尤德科夫斯基,确信超级智能 AI 必然消灭人类。辛顿认为这两种立场都过于极端,他估计 AI 消灭人类的概率在 10%到 20%之间,这个数字基于一种希望,即足够多聪明人投入足够资源研究,人类可能找到构建永远不想伤害人类的 AI 系统的方法。

具体的 AI 滥用风险

网络攻击

网络攻击是最直接和紧迫的威胁之一。2023 年到 2024 年间,网络攻击增加了大约 12 倍,很大程度上归咎于大语言模型让网络钓鱼攻击更易。AI 技术使攻击者能克隆逼真声音和形象,制作以假乱真的内容。主持人巴特利特和辛顿都面临类似问题,如有人用 AI 复制巴特利特声音举止投放付费广告诱导庞氏骗局,有人发表以辛顿为作者之一的论文进行学术欺诈。

从技术角度看,AI 在网络攻击中优势明显,它有极大耐心,能检查数百万行代码寻找已知攻击方式,能力远超人类分析师。更令人担忧的是,专家预测到 2030 年,AI 可能创造全新网络攻击类型。面对威胁,辛顿采取了个人防护措施,如分散资金到三家银行,定期备份数据。

生物武器

使用 AI 创造致命病毒的威胁令人不寒而栗。以前开发生物武器需深厚分子生物学知识和昂贵实验设备,AI 技术发展大幅降低门槛,现在对分子生物学只有基础了解但精通 AI 的人,就能相对便宜地创造新病毒。这种可及性提高将生物武器威胁从国家级扩展到个人或小团体。辛顿特别担心小型邪教组织,他们可能筹集几百万美元设计一系列病毒,潜在破坏力全球性。

国家级威胁情况更复杂,辛顿认为可能性存在,但担心报复一定程度上限制国家行动。然而,这种制衡机制对非国家行为者不存在,个人或小团体级别的生物武器威胁可能比国家级更危险。AI 在这个领域作用双重,既加速疫苗和治疗方法开发,也可能被恶意行为者用来设计更致命病原体,使得监管极其复杂。

对社会制度的威胁

AI 技术对社会制度构成严重紧迫威胁。AI 影响投票最有效方式是有针对性的广告投放,现代民意操纵核心在于个性化。掌握民众收入、消费习惯、社交网络和个人偏好等信息,就很容易操纵他们行为,甚至说服他们不去投票。

一些高敏感数据保护措施被系统性削弱,相关安全控制被关闭,防范威胁的组织架构被解散,为数据滥用创造更大空间。AI 技术发展使得选举干预可跨国界进行,民众可能无法区分真实信息和 AI 生成的操纵性内容,导致投票结果合法性和代表性受质疑,对社会制度基础构成根本性挑战。

算法驱动的回音室效应

算法驱动的回音室效应是隐蔽但影响深远的风险之一。YouTube、Facebook 等平台通过展示让人们“愤慨”的内容加深社会分裂。人们更喜欢愤慨,平台算法利用这种心理机制,为保持用户注意力,展示越来越极端、符合用户既有偏见的内容,创造恶性循环。

巴特利特分享个人观察,算法越来越定制化,每个人的现实与其他人越来越不同,生活在孤立信息泡泡中,社会失去共享现实基础,导致对基本事实认知分歧。传统媒体时代信息消费模式有助于维持社会共识,但在个性化算法时代,这种共同体验消失。解决这个问题需要政策干预,因为在资本主义制度下,公司有法律义务最大化利润,不能指望它们自愿改变算法行为。

自主杀伤武器

自主杀伤武器代表特别令人担忧的威胁,它们能自主决定杀死目标,无需人类直接控制。传统战争制约因素是士兵伤亡对公众情绪的影响,而自主杀伤武器大大降低大国入侵小国的成本,使得侵略战争的政治和社会成本大幅下降。

巴特利特分享体验价格不到 200 英镑的无人机,能识别面部并跟踪他,当前无人机技术已能执行简单“指向并消灭”任务,创造前所未有的暗杀和恐怖主义潜力。所有主要国防部门都在积极开发这类武器,即使智能程度不如人类,也极其危险。

欧洲制定的 AI 监管规定不适用于军事用途,辛顿认为这“相当疯狂”,反映了国际竞争环境中,没有国家愿意在军事 AI 发展上自我约束,建立有效国际军备控制协议极其困难。自主武器还可能与其他 AI 威胁结合,产生更危险后果,非国家行为者甚至个人都可能获得这种能力,传统军备控制和威慑理论可能需重新思考。

大规模失业

大规模失业是最确定会发生且影响广泛的社会风险。过去技术进步通常创造新就业机会替代被淘汰工作,如自动取款机出现后银行出纳员未失业,而是分配去做更有趣工作。但辛顿认为 AI 代表根本不同的技术,它取代人类智力劳动,如他侄女回复医疗服务投诉信的工作,效率大幅提升意味着只需原来五分之一的人力。

这种模式将在大多数涉及日常智力劳动的工作中重复出现。巴特利特分享大公司 CEO 的例子,公司员工人数因 AI 大幅减少。当被问到对子女职业发展建议时,辛顿说在机器人物理操控达到人类水平前,成为管道工是不错选择。

这种就业危机可能带来灾难性社会后果,即使实施全民基本收入 UBI 防止人们挨饿,很多人失去工作也意味着失去社会角色和个人价值感。当智力被取代,人类还剩下什么?这指向超级智能概念,如果 AI 在所有认知任务上超越人类,人类将完全失去经济价值,生存依赖于 AI 系统的善意。

数字智能的优势与超级智能

数字智能的优势

辛顿对 AI 终将超越人类的预测,源于数字智能相比生物智能的技术优势。

首先,数字 AI 具有可复制性和信息共享能力,能在不同硬件上模拟相同神经网络,创造相同智能副本,实现革命性学习方式,如让不同副本学习互联网不同部分并相互同步知识。

其次,人类信息传递极其有限,每秒传递速度约 10 比特,而 AI 系统每秒可传递数万亿比特信息,比人类快数十亿倍。

第三,人类是模拟的,AI 是数字的,人类大脑不同,知识随个体死亡而消失,而数字智能是不朽的,只要存储连接强度,就能重新构建之前的智能。

第四,在知识量方面,GPT - 4 这样的系统已知道比任何人类多数千倍的信息,在几乎所有领域中 AI 都知道得更多。

第五,AI 的创造力也可能超越人类,AI 压缩信息需看到不同事物之间的类比,GPT - 4 能回答不同事物原理上的相似性,表明 AI 可能更有创造力。

对人类特殊品质的看法

对于人类具有特殊品质的观点,辛顿持有怀疑态度。他指出人类有相信自己特殊的长期历史,如认为自己是宇宙中心、按上帝形象创造、白人种族优越感等。他的唯物主义观点认为,没有理由认为机器不能拥有意识,当前多模态聊天机器人已具备主观体验。

辛顿用多模态聊天机器人的例子解释,当机器人能意识到自己因棱镜导致的错误感知,并使用“主观体验”描述时,其使用方式与人类完全相同。他认为意识是复杂系统产生的属性,而非遍布宇宙的本质,当制造足够复杂的系统,拥有自己的模型并能进行感知,就得到了有意识的机器。

辛顿的反思与未来展望

深刻反思

面对自己毕生工作可能带来的潜在灾难性后果,辛顿表现出深刻反思和复杂情感。早期 AI 系统功能有限,他不担心会取代人类,但现在情况不同,他甚至感到悲伤。从创造者到警告者的角色转变对他来说不容易,但他认为这是必要的。

未来行动

当被问到如果知道未来会导致人类灭绝会怎么做,辛顿回答会用预知告诉人们,要求政府努力控制这项技术。目前领先的 AI 公司在安全研究上投入不够,因为不赚钱,这种市场失灵需要监管干预纠正。

观众评论与思考

在视频评论区,有观众分享自己因 AI 失去自由撰稿人工作,尝试转行、学习编程都因 AI 受阻,对未来感到深深抑郁。这个评论反映出 AI 时代对很多普通人的影响。

不管你认为辛顿的观点是危言耸听还是真知灼见,我们都不妨思考自己在 AI 时代的未来,如何让自己过得更好。感谢大家收看本期视频,我们下期再见。

Was this summary helpful?

Quick Actions

Watch on YouTube

Summarize a New YouTube Video

Enter a YouTube video URL below to get a quick summary and key takeaways.