Video thumbnail for AGI的未来,取决于算法和算力?还是取决于我们人类自身?

AGI的終極挑戰:算法、算力,還是人類自身?OpenAI內幕深度解析

Summary

Language:

Quick Abstract

探索OpenAI的內幕,深入了解伊利亞·蘇茨凱韋爾(Ilya Sutskever)對超級智慧模型的驚人預測與其在OpenAI的戲劇性旅程。本文將分析蘇茨凱韋爾的核心信念——「大腦是生物電腦」,以及他對AI未來發展的極端挑戰與機遇的看法。從學術生涯到OpenAI的權力鬥爭,再到創立SSI,本文將揭示他如何塑造AI的發展方向。

Quick Takeaways:

  • 蘇茨凱韋爾認為,AI最終將取代人類所有工作,挑戰我們對智慧的理解。

  • 他深信大腦是生物電腦,數位電腦也能實現同樣的功能。

  • AlexNet的成功,標誌著深度學習的革命性突破。

  • 在OpenAI的經歷充滿權力鬥爭,最終促使他離開並創立SSI,專注於AI安全。

  • 他認為AI發展的極端挑戰不僅在於技術,更在於人性與倫理的堅守。

蘇茨凱韋爾的故事提醒我們,駕馭AI的關鍵最終在於我們自身,是人類的複雜性與智慧,將決定AI的未來。

伊利亚·苏茨克维与超级智能模型

新工具与热门话题

今天,我们将借助OpenAI本周刚发布的新O3 Pro,探讨超级智能模型这一热门话题,以及其首位创造者伊利亚·苏茨克维。这让人想起山姆·奥特曼神秘发布的草莓元素图片,当时业界认为这是对草莓项目的预测,可能是GPT-5的早期版本或关键技术曝光。

多伦多大学演讲

本月,伊利亚·苏茨克维在多伦多大学发表演讲并获得荣誉博士学位。他提出人工智能未来将带来极端挑战与巨大回报,预测AI可能最终承担人类所有工作。他认为大脑是生物计算机,那么数字计算机也能做到,这一观点几乎是其整个信念体系的基础。

信念的深度与影响

对智能的全新理解

苏茨克维认为智能并非神秘复杂不可理解,其底层机制或许没那么繁琐,智能本质是计算过程,理论上可被机器复制超越。这一观点贯穿他的研究生涯,影响了OpenAI的诸多决策及后续动荡。

带来的哲学与社会问题

若智能可计算模拟,人类独特性何在?如苏茨克维演讲中提到,若机器能做人类所有工作,大量工作将消失,社会结构会如何改变?科技进步加速,新药研发、科学发现加快,这既令人期待又令人担忧。

早期经历与信念形成

童年的思考

想象一个五岁孩子突然意识到自己的存在,开始思考“我是谁”“学习如何发生”,这种对存在和智能的追求对苏茨克维来说再熟悉不过。他五岁从苏联移民以色列,十六岁移民加拿大,不断迁徙适应新环境的经历,让他对学习过程有了更深刻的理解和好奇。

学习与灵魂的联系

他认为灵魂的作用或许是学习,将学习与灵魂联系的想法很特别,表明他的深度思考一直试图触及最根本的问题。因此,“大脑是计算机”的信念对他而言不仅是科学假设,更像是童年未解之谜的答案框架。

成长轨迹与学术成就

非凡的求学之路

苏茨克维在以色列公立学校表现出色,中学就通过函授课程学习大学内容。十六岁移民加拿大后,作为十一年级学生,他仅上了一个月高中就退学,以大三学生身份进入多伦多大学。

与杰弗里·辛顿的相遇

17岁时,他请求辛顿让他从机器中学习。尽管辛顿起初让他另找时间,但苏茨克维坚持,辛顿给了他一篇关于反向传播的论文。几天后,苏茨克维表示不理解,认为为何不直接提问并将结果交给合适的参数优化器。他的独特见解让辛顿对他评价极高,邀请他加入实验室。

坚定的研究方向

苏茨克维后来获得多伦多大学数学硕士学位,并跟随辛顿攻读计算机科学博士。他很早就认定神经网络之路,认为其他方法不太可能带来真正的智能,只有神经网络最有潜力。他还批评当时学术界对神经网络有些轻视。

亚历克斯·内特:实践的关键一步

背景与尝试

2012年,斯坦福大学举办ImageNet大规模视觉识别挑战赛,此前几年进展缓慢,方法传统。辛顿团队决定用深度神经网络参赛,这在当时是大胆尝试,因为深度神经网络训练困难且计算量大。

团队合作与成功

团队负责数据准备、模型调整和核心算法部分,阿列克谢·克里切夫斯基是擅长捕捉GPU计算性能的天才工程师,编写高效GPU代码实现网络训练,辛顿提供关键指导。最终,亚历克斯·内特在比赛中以巨大优势获胜,直接点燃了深度学习革命。

商业影响

这一成功使他们的第一家公司DNN Research很快被谷歌高价收购,苏茨克维也进入谷歌,在谷歌大脑团队继续重要工作。

在谷歌的重要贡献

序列到序列学习

2014年,苏茨克维与他人合作发表关于序列到序列学习的论文,对后来的自然语言学习产生巨大影响。论文核心思想是用神经网络读取输入序列,压缩成固定长度的思想图像,再用另一个神经网络生成输出序列。

为后续模型奠定基础

这一工作中的注意力机制是后来Transformer模型的核心,为Transformer GPT系列模型的发展奠定了重要基础,可以说没有序列到序列学习及其包含的注意力思想,就没有今天的AI浪潮。

加入OpenAI的曲折过程

最初的邀请

山姆·奥特曼给苏茨克维发邮件邀请他参加关于创建新AI实验室的晚宴,邮件提到埃隆·马斯克也会参加,这是关键原因,苏茨克维像小粉丝一样兴奋地跑去参加。

与团队成员的相遇

在晚宴上,他遇到格雷格和布鲁克曼,相谈甚欢,立刻表示想领导新实验室的研究工作。辛顿认为布鲁克曼的商业头脑、组织能力与苏茨克维的技术才华是完美互补。

谷歌的挽留

谷歌不想放他走,提供数倍薪水、独立运营实验室的承诺和足够资源自由,苏茨克维动摇了,起初决定留在谷歌退出OpenAI项目。但得知马斯克不仅参与还承诺大量投资和深度参与后,他决定再次加入。

最后的决定

在蒙特利尔的NIPs会议上,苏茨克维几乎再次改变主意,谷歌AI经理杰夫·迪恩亲自出马,举办近600万美元的年终派对并与他长谈。最终,布鲁克曼的坚定打动了他,他在最后一刻同意加入。

OpenAI的发展与争议

从非营利到营利

OpenAI起初是非营利组织,目标是为人类安全开发AGI,但很快发现研究和人才成本过高,非营利模式难以维持。考虑过ICO被马斯克否决后,选择成立营利公司OpenAIRLP吸引投资,微软随后大量投资。

内部权力与方向之争

早期,苏茨克维似乎更倾向让马斯克领导,但奥特曼成功说服布鲁克曼支持他为CEO,布鲁克曼又说服了苏茨克维。从后来披露的信息看,苏茨克维当时对奥特曼有所担忧,这也是他支持马斯克离开董事会的原因之一。

研究方向的冲突

草莓项目与权力斗争

2021年,苏茨克维计划专注推理的新模型草莓项目,这是后来O1模型的基础。但同时,与布鲁克曼关系较近的另一位研究主管雅库布·帕乔夫斯基也在类似方向研究变体。奥特曼试图协调,决定让苏茨克维保留首席科学家头衔,帕乔夫斯基共同负责研究总监,这导致长期内部权力斗争和沟通不畅,研究进展和生产力严重受影响。

信任裂痕加深

苏茨克维认为这再次证明了奥特曼在他眼中灾难性的领导风格,对奥特曼的信任裂痕进一步加大。

转向AI安全领域

超级团队的成立

2023年夏天,苏茨克维正式成立备受关注的超级团队,目标是确保未来超级智能对人类安全。但核心矛盾是他和帕乔夫斯基都认为奥特曼曾分别承诺让他们领导公司未来的研究方向。

信任危机加剧

这种被欺骗的感觉和混乱的管理经历无疑加剧了苏茨克维对奥特曼的不信任,成为后来罢免事件的重要背景。

震惊科技界的罢免风波

与独立董事的接触

苏茨克维联系OpenAI董事会独立主席海伦·特纳,这一行为本身很不寻常。他起初只是暗示特纳多与当时的CTO米拉·穆拉迪交流,后来逐渐明确表达对奥特曼的担忧。

提供证据与董事会决策

苏茨克维还联系了另外两位独立董事亚当·迪安杰洛和塔莎·麦考利,通过自毁PDF副本分享大量截图证据,详细列举他认为奥特曼撒谎、控制信息等有害行为,强烈敦促董事会采取行动。最终,四位董事投票决定罢免奥特曼,布鲁克曼被排除在投票外并随后被罢免。

公司内部的混乱

罢免通知未解释具体原因,只说董事会对奥特曼失去信心。这在公司内部引发混乱,临时CEO穆拉迪和苏茨克维主持全员会议试图安抚员工,但场面失控,员工愤怒困惑,不断追问罢免原因却无人能给出明确答复。

局势的逆转

员工的反对

周五晚上,公司首席法律顾问杰森·泉要求董事会与高级管理团队谈话。周日,公司大厅挤满支持奥特曼的员工,奥特曼的妻子甚至要求董事会改变主意。

员工的最后通牒

周一早上,超过700名OpenAI员工,即绝大多数员工,签署公开信要求董事会辞职,否则将跟随奥特曼去微软。苏茨克维也在其中,并在社交媒体上公开表达歉意。

离开OpenAI

尴尬的处境与谈判

奥特曼很快回到公司,苏茨克维在公司的位置变得非常尴尬,一度从公众视野消失。公司与他进行了长时间谈判,提供丰厚的挽留计划,他接受了,但最终在2024年5月14日正式宣布离开OpenAI,称要追求对个人有意义的项目。

新公司的成立

他与前YC合伙人丹尼尔·格罗斯和前OpenAI尤巴团队经理丹尼尔·利维共同创立新公司Safe Super Intelligence Inc.,专注解决AGI的安全和平衡问题。

各方的看法与影响

辛顿的观点

苏茨克维的导师辛顿公开表示为他当时试图动摇奥特曼的行为感到骄傲,认为奥特曼对利润的关注远超对安全的关注。

内部关系的微妙

OpenAI后来发布的强大模型的许多功能,如推理能力,实际源于苏茨克维三年前启动的OE项目,但发布时几乎未提及他的贡献,反映了内部关系的微妙。

对极端挑战的理解

经历的启示

苏茨克维的经历是对极端挑战复杂性的绝佳注脚,挑战不仅是技术层面的,更深刻暴露了人性层面的问题,如在商业利益诱惑下坚守安全伦理目标,不同价值观、野心的人之间建立信任与有效合作,以及在快速发展与谨慎之间找到平衡。

对未来的思考

他试图以理想主义方式解决所见危险,却陷入更复杂的人际和组织困境,表明AGI的开发和部署充满人类变量和风险。他演讲中引用的“你可能对政治不感兴趣,但政治会对你感兴趣”,简直是对自己经历的精准预言。

关于未来的思考

人类自身的重要性

苏茨克维的整个职业生涯都在“大脑是计算机”这一信念的指引下前进,但他自己的故事生动描绘了AI发展的轨迹,充满人性因素。当我们构建超越人类智能的机器智能时,是否也必须同时面对和处理自身智能的复杂性甚至缺陷?

核心问题的探讨

随着AI能力越来越强,真正解决能否驾驭极端挑战的关键变量,或许恰恰是人类自身的复杂性,包括智慧、偏见、合作能力和冲突模式,这些可能比Transformer的层数或参数数量更重要。创造者的特征最终会反映在创造者与被创造者的关系中,这一复杂而深刻的互动可能是未来几十年需要持续审视和反思的核心问题。

好的,今天的视频就先聊到这里。如果你喜欢今天的节目,别忘了点赞分享并订阅我的频道,及时获取科技资讯和深度解析。感谢观看,我们下期再见。

Was this summary helpful?