尤瓦尔·赫拉利及其观点背景
- 大家好,我是大飞。不久前,《人类简史》作者尤瓦尔·赫拉利在油管官方频道更新了于东京清英艺术大学的演讲,主持人是清英艺术大学校长伊藤公平。赫拉利是以色列历史学家,著有《人类简史》等书,六年前出版的《人类简史》指出全球三大威胁:核战争、不受控的生物技术发展、信息技术网络和人工智能缺乏控制。
三大威胁的优先级调整
人工智能与生物技术对比
-
在此次演讲中,赫拉利认为当年的三大威胁里,核与生物威胁风险似乎没那么高,AI风险优先级更高。生物技术改变周期长,像修改人类基因组再观察影响,评估新遗传物质对人类行为、智力和心理的具体作用可能要20 - 40年,涉及人类时等待期约20 - 30年。
-
而AI发展速度快得惊人,可能只需几天。数字进化比有机进化快几百万倍,这决定了尽管生物技术潜在威胁不可低估,但AI因激进发展更令人紧张。
人工智能与核威胁对比
-
赫拉利认为更关注AI有两个主因。其一,核战争无积极意义,所以没有支持者。自1945年起,国际体系最大禁忌就是强国不能因自身实力随意入侵、征服和摧毁弱国,虽这禁忌已被打破,但至少大家明白其危险,所谓“战争没有赢家”。
-
其二,AI挑战更复杂,因它有巨大潜力,让人难以完全理解其潜在威胁。自广岛和长崎原子弹爆炸后,核技术危险人类皆知,无需多言,但AI危险难以把握。
人工智能的核心特点
异质性与超越人类
-
赫拉利强调AI核心问题不是邪恶,而是异质。它是一种可能在多方面超越人类的智能,但不是人类智能,也不是有机智能。很多人问AI何时能达到人类智能水平,他回答永远不会,因它与人类完全不同,就像飞机永远无法达到鸟的飞行水平,两者飞行方式不同。
-
AI肯定会超越人类智能,但本质是不同种类,这使其发展轨迹和后果极难预测。
具有自主性
-
赫拉利指出AI不是工具,而是有自主性的主体。这是人类长期以来创造的第一种有自主性且不仅是工具的技术。原子弹或核反应堆发电都是人类手中工具,决策权在人类,反应堆本身不能做任何决定,更不能发明下一代反应堆或炸弹。
-
但AI无需人类帮助和干预就能做到,AI能自己做决定,AI武器无需人类指挥就能决定轰炸目标,甚至能发明新武器和军事策略。它既有巨大积极潜力,也有巨大消极潜力。
人工智能带来的挑战
人类统治地位受威胁
- 赫拉利在新书里选择聚焦信息技术史,因他认为这是当下最大挑战,甚至是人类历史上很多方面的最大挑战。几千年来,人类统治地球,没有东西能在智力和创新上与我们竞争,但现在可能几年内就会有一种在智力上超越我们的存在,它能决定我们的生活,发明从药物到武器的所有新事物。
信任悖论
-
赫拉利提到AI革命存在信任悖论。AI革命领导者如OpenAI、微软、腾讯、百度等公司负责人和主要政客,总被问两个问题。第一个问题是为何发展这么快,赫拉利理解AI巨大潜力,但也知有风险,建议放慢速度给人类社会时间适应,而这些领导者回答几乎一致,即理解风险甚至可能导致人类灭绝,也愿放慢,但不能,因若自己放慢,其他公司和国家竞争者不放慢,他们就会赢得竞争,冷血者将凭借AI技术统治世界。
-
所以结论是因不能信任其他人,所以要发展更快。赫拉利接着问第二个问题,是否认为能信任正在开发的超级智能AI,他们回答是,这让赫拉利难以置信。
信任经验的差异
-
赫拉利表示人类几千年来与他人打交道,了解自己的心理和动机,知道人类渴望权力,也明白约束权力的机制,从1万年前只能信任部落内几十人发展到几亿公民能相互信任的国家,全球贸易网络连接80亿人。
-
但人类对超级智能AI没有经验,不知道它们可能发展出何种目标和技能,也不知道数百万超级智能AI与数百万人类互动会发生什么。AI不是某个地方的大电脑,应被视为全球移民潮,会抢走人们的工作,有不同的社会管理方式,甚至可能接管国家。
精英与普通人的信任问题
错误的区分
-
伊藤提到所谓精英和普通人之间的信任差距不断扩大,赫拉利回应称,像我们在脑海中发明的许多差异一样,精英和民众的区分也是错误的。他以马斯克等世界首富为例,这些人自称反对精英,若他们不是精英,那什么是精英。
-
所有掌管美国政府的亿万富翁都不是精英吗?他认为“精英”一词已成为负面标签,人们只用它攻击对手,其实每个群体都有自己的精英。
服务型精英的重要性
-
赫拉利强调任何群体都离不开精英,社会中总会有一些人在某些方面更有才华或更有权力和影响力,这是人类社会的本质。问题不在于精英是否存在,关键在于这是服务型精英还是自私自利的精英。
-
在一个群体中,若最有影响力的人只为自己利益使用权力,那将是非常糟糕的情况。理想情况是在特定领域有才华、更有影响力或权力的人能将其用于社会福利。
大学的目标
- 赫拉利认为像清英这样的高等学府,目的不应是摧毁精英,也不是打破群体间的障碍,而是培养服务型精英,这是大学应追求的目标。
教育在人工智能时代的角色
信息时代的教育任务
-
伊藤提到赫拉利书中谈到生活在网络空间和物理空间的人之间的分裂,越来越多的人沉浸在网络空间,习惯接收碎片化信息,他关心高等教育机构如清英和中小学应如何应对这一挑战,确保年轻一代仍能阅读激发思考的长篇内容,在这个深度思考和面临挑战的时代,教育应在维持人类智力水平方面发挥什么作用。
-
过去教育机构的核心任务是提供信息,因信息稀缺,如今情况相反,人们不再缺乏信息,而是被大量信息淹没,最重要的是要明白信息不是真相。
区分真相与虚假信息
-
赫拉利强调真相在信息中是非常罕见的词,世界上大部分信息是垃圾信息、假货、幻想、谎言和宣传等。原因不难理解,首先真相昂贵,假货便宜,要验证一项真正的技术需要研究、花时间分析和核实事实,这需要时间、精力和金钱,而虚构很便宜,只需写下脑海中闪过的任何想法。
-
其次真相往往复杂,因现实复杂,比如写一本关于量子物理的书,过程本身就很复杂,而人们通常不喜欢复杂的叙述,更喜欢简单的故事,虚构可以根据需要变得尽可能简单。最后真相往往是痛苦的,从个人角度看,这就是人们需要心理治疗的原因,对整个国家也是如此,国家也常常不愿承认历史的某些部分或社会的某些痛苦。
-
在复杂痛苦的真相和廉价、简单、诱人的假货之间的竞争中,假货往往获胜,所以世界充满了大量虚假内容。因此,大学和报纸公司等机构的任务不再只是向人们提供更多信息,而是向人们提供一种在信息海洋中找到那些罕见的真正宝石的方法,并知道如何区分两者。
历史教育的重点
-
作为历史学家,在历史课上教给学生的不是过去的具体事实,比如某个国王在哪一年打败了另一个国王,学生可以通过互联网轻松获得这些信息,他们在历史课上真正需要学习的是如何区分可靠和不可靠的历史来源。
-
比如一个来源可能是我们今天在互联网上看到的,像在TikTok上看到的视频,是否应该相信它?另一个来源可能是一份中世纪的文件,应该如何判断是否应该相信它?因为一千年前的人也会撒谎,不仅仅是今天的人。
应对人工智能挑战的关键
建立人类之间的信任
-
伊藤提到读赫拉利新书《人类之巅》带来复杂情感体验甚至一些痛苦,但也给他希望,因事情还没到无法挽回的地步,人类有相互交流的能力,只要有足够时间,在AI发展到一定程度之前,也许能找到应对方法,基于此考虑,清英大学成立了跨荣誉中心,希望人文社会科学学者共同应对这一挑战。
-
赫拉利毫不犹豫地回答,他认为目前最紧迫的问题是如何在人类之间建立信任,因为当前世界正在见证人类信任的崩溃,而这发生在我们最需要信任的时刻。他强调当今世界最大的危险实际上不是AI,而是人类之间的不信任。若人类能相互信任和合作,仍能设计出安全的AI发展方式,正是人类之间的不信任使AI革命如此危险。
多学科合作
- 赫拉利认为这需要多学科的投入,因为没有单一学科能独立解决这个问题。我们需要生物学和心理学的视角,因为我们还是动物,需要了解自己的动物遗产。当然也需要经济学和计算机科学的参与,因为当今所有社会系统都是建立在新信息技术之上的。过去10 - 20年建立的许多非常成功的人类信念现在可能已经过时,因为现在人类通过计算机交流。
信任崩溃的悖论
-
过去一二十年人类信任崩溃存在悖论,从很多硬数据来看,比如儿童死亡率、疾病、饥荒等,人类社会处于有史以来最好的状态,但人们却如此愤怒和沮丧,无法相互交流。有人认为原因是新技术介入了人类之间,现在人类大部分交流是通过非人类中介进行的,这导致了世界的混乱。
-
但要重建信任,不能简单地扔掉所有智能手机和电脑,而是需要借助信息技术重新学习如何在公众中建立信任。
国际形势与人工智能
国际秩序的变化
-
伊藤询问赫拉利对美国领导层更迭后全球形势发展的看法,并表示充满担忧。他指出由于社会的快速入侵和社会之间的信任问题,我们看到二战后建立的国际秩序正在崩溃。整个国际秩序最重要的禁忌和规则是强国不能随意进入和征服弱国,这与之前几千年的人类历史形成鲜明对比。
-
21世纪初,人类享受了历史上最和平繁荣的时代,很大程度上是因为这一禁忌得到了维护。但现在趋势正在逆转,若弱国拒绝服从强国,由此引发的冲突将被归咎于弱国,这种逻辑随处可见,比如美国曾主张征服格陵兰岛,这种世界观和逻辑将使全人类回到持续战争的状态。
对人工智能监控的影响
- 在这种情况下,不仅医疗和教育预算会下降,任何监控AI的机会也会消失。因为每个国家都会说必须赢得AI竞争,不会做任何可能减缓自己速度的事情,以防止对方获胜,然后对方成为强国,自己必须服从。
问答环节
社交媒体的言论与信息自由
-
有观众问到如何在确保言论自由的同时规范信息传播,尤其是在算法引导信息分发的背景下,如何确保信息的质量和可信度。赫拉利精确区分了言论自由和信息自由,他强调言论是赋予人类的非常重要的权利,应该受到保护,但信息自由完全不同,这是一项新权利,不是赋予人类的,而是赋予AI、算法和机器人的。
-
许多社交媒体巨头故意混淆这两项权利,社交媒体的问题不是人类编造谎言,因为人类几千年来一直在编造谎言,除非是极端情况,否则不应因此受到惩罚。真正的问题是平台上有算法,它决定故意传播谣言、仇恨等,这应该被阻止并受到惩罚。
人工智能对战争形式的影响
-
有人问到AI对战争形式的影响,指出信息技术的发展不会废除物理世界,而是在其上建立一个新的层次。几千年来,人类创造的各种信息,无论是法律、宪法、宗教还是金钱,都没有取代或废除物理和生物现实,人们仍然有需要食物和清洁水的身体,但这些额外的信息层允许人类创建贸易网络等,改变我们获取食物的方式。
-
AI对战争的影响也类似,战争的本质仍然是杀戮,但实现方式正在改变。目前杀戮仍由人类进行,但AI真正改变的是谁在选择目标,谁在做决定,谁决定轰炸这座建筑,谁决定轰炸这个人。在过去,目标检测工作由人类情报官员完成,可能需要几天时间确定一个目标,但现在AI可以在几秒钟内完成这项任务,AI能处理大量远超人类分析能力的信息,发现人类无法检测到的模式,并在几秒钟内指出这是敌人总部并轰炸它。
总结
-
赫拉利总结称,很多讨论听起来令人担忧,因开发AI的公司往往只强调AI的积极潜力,所以哲学家、历史学家和批评家有必要指出潜在危险并寻求平衡。问题的关键不是如何阻止AI的发展,而是希望以安全的方式发展它,而实现这一目标的关键是回到如何在人类之间建立信任的问题。
-
信任是生命的基础,即使世界存在巨大问题,生命的基础最终还是信任。以上就是尤瓦尔·赫拉利此次演讲的主要内容,希望能给大家一些启发和思考,感谢观看,下次见。