Video thumbnail for Why Don't AI Agents Work?

為什麼AI智能體還不Work?揭秘背後的科學真相

Summary

Language:

Quick Abstract

AI 代理真的準備好了嗎?探索人工智慧代理(AI Agents)背後被炒作的潛力,以及阻礙它們實現的科學挑戰。本摘要深入探討 AI 代理的定義、它們為何被視為下一件大事,以及 DeepMind 一篇重要論文對其發展的影響。理解目前科技限制,並預測未來發展的可能路徑。

Quick Takeaways:

  • AI 代理被定義為具有自主性、社交能力、反應性和主動性的系統,能像公司一樣協同解決複雜問題。

  • DeepMind 的研究表明,能適應廣泛環境變化的 AI 代理必須學習因果模型。

  • 目前大規模因果建模技術緩慢且範圍狹窄,難以實現 AI 代理所需的能力。

  • 商業因果建模的黃金標準是實驗,但面對大量的決策點,實驗的成本很高。

  • 推理模型在數學基準測試中表現出色,可能將其推理能力應用於因果建模領域,是潛在的突破方向。

AI 代理:当前技术的局限与未来展望

引言

大家好,我是 DJ,经营着机器学习咨询公司 Truth Deta。在本视频中,我们将探讨 AI 代理以及它们目前无法正常工作的核心科学原因。这一点非常重要,因为在过去一年中,AI 代理受到了广泛关注。各种迹象随处可见:AI 代理的搜索趋势大幅上升;谷歌和微软在其开发者大会上都发布了有关 AI 代理的公告;AI 代理指数显示其发展速度加快;UiPath 对 IT 高管的调查显示,93%的人对代理式 AI 非常感兴趣,32%的人计划在近期进行投资。显然,每个人都对 AI 代理感到兴奋。然而,存在一个不可否认的基本科学挑战,使得当前技术无法实现真正的 AI 代理。这正是本视频的主题。

什么是 AI 代理以及为何它们被视为下一个大事件

AI 代理的定义

目前对于 AI 代理并没有明确的共识,市场上有很多定义使得许多科技产品都可以被视为 AI 代理。例如,一些人认为大型语言模型在提供答案之前搜索互联网、使用编码工具并自我反思答案就是 AI 代理。但这些并不能真正捕捉到人们对 AI 代理未来的想象,即 AI 能够自动化我们大部分平凡的数字工作,并像公司一样合作解决复杂的现实世界问题。

为了给出一个合适的 AI 代理定义,我参考了 1995 年的经典论文《智能代理:理论与实践》。作者提供了四个因素:

  • 自主性:无需人类干预或监督即可行动。

  • 社交能力:通过某种语言与其他代理交互,从而实现合作。

  • 反应性:感知环境并采取相应行动。

  • 主动性:不仅能做出反应,还能自行形成目标并追求。

如果某个由人类制造的东西在这四个方面得分都很高,那么它就是一个 AI 代理。此外,代理式系统包括多个 AI 代理,它们共同运作,就像一个更有能力的代理,需要更少的指导,可以做更多的事情。

AI 代理受关注的原因

考虑一下一年前的标准 AI 产品,如 ChatGPT、Gemini 和 Claude。用户提出问题,它们会迅速返回答案。这意味着它们是被动和反应性的,只有在被提示时才会行动,并且只有当人们选择对答案采取行动时,才会直接影响世界。在我看来,这是一个很好的默认安全协议。但 AI 绝对主义者会称这是一个重大的生产力瓶颈。也就是说,AI 要想非常高效,就需要有代理能力,能够自行行动。

DeepMind 论文及其对 AI 代理的意义

论文的主要贡献

DeepMind 的一篇论文《稳健代理学习因果世界模型》证明了一个重要观点:任何能够适应足够大的分布变化集的代理都必须学习数据生成过程的因果模型。这是一个经过证明的陈述,尽管他们做了一些技术假设,但如果接受这些相当普遍的假设,这个陈述就是不可否认的,这使得他们的论点非常有力。

与 AI 代理无法工作的关系

首先,能够适应的稳健代理几乎肯定是有效代理式系统的要求。其次,学习因果模型是它们必须做的事情,但目前在技术上是不可能的,至少在大规模上是如此。

对论文陈述的详细解释

  • 任何能够适应足够大的分布变化集的代理:指的是能够在与训练环境不同的各种环境中表现良好的代理。例如,一个在佛罗里达州阳光明媚的道路上训练的汽车驾驶代理,在某个时候被迫在阿拉斯加州结冰的道路上驾驶,这就是一个分布变化的测试环境。

  • 必须学习数据生成过程的因果模型:因果模型捕获的是实际的因果关系,而不仅仅是数据中变量之间的关联。数据本身通常只能告诉我们关联,而因果建模需要了解因果关系,这往往是数据无法提供的。

因果模型的重要性和挑战

因果模型与关联模型的区别

因果模型比纯粹的关联模型信息丰富得多,因此也更难开发。例如,有一个数据集显示一群人是否去看医生以及一周后是否生病。从数据中可以看出,去看医生的人一周后生病的可能性更大,但这只是关联。如果要预测去看医生这个行动的结果,这就是一个因果问题,不能简单地使用原始数据。

因果建模的局限性

因果模型几乎总是无法从数据中得知,即模型参数无法识别,数据无法区分一组可能的因果模型。建模者必须使用他们对所建模事物的知识对数据做出假设,而且这些假设很难验证。

现代因果建模与实验

商业环境中的因果建模

在商业环境中,因果建模是为了预测行动的结果。黄金标准是实验,但由于决策数量远远超过可以进行的实验数量,所以需要因果推理。因果推理除了使用收集的实验数据外,还可以使用被动收集的观测数据来回答因果问题。

因果推理的特点

因果推理是一种缓慢、狭隘的过程。狭隘是指通常只涉及少数几个变量,因为这是我们能够有效推理的范围;缓慢是指要做好需要时间和耐心,而且根本无法自动化。

因果推理的实例

《房屋共享对房价和租金的影响:来自 Airbnb 的证据》这篇论文就是一个深入的因果推理实例。它问:“如果在某个特定地区将 Airbnb 房源增加 1%,租金和房价会变化多少?”这是一个因果问题,论文长达 70 多页,展示了回答因果问题所需的大量工作。

我自己的工作也是一个例子。我为 AMP 公司工作,他们做用户参与管理。他们需要回答“在什么时间向哪些人发送什么信息,才能让他们完成某个目标事件,比如购买”这个问题。这需要因果推理,因为我们需要知道“如果我们采取这个行动,会发生什么”。

结论与未来展望

总结

代理式 AI 系统目前由于一个基本的未解决问题而无法实现,即它们需要 AI 代理在某种程度上弄清楚因果关系,而现代最先进的因果建模是一个缓慢、狭隘、无法自动化和扩展的实践。因此,在代理式 AI 成为一项高影响力的技术之前,我们需要在因果建模方面取得突破。

未来可能的突破方向

我认为无法避免因果建模和实验,但我们可以在这些方面取得重大进展。一个潜在的途径是通过推理模型,它们在一些非常难的数学基准测试中表现出色。有可能将这种推理应用到因果建模领域,但需要注意的是,推理模型依赖于经过验证的数据,而在因果推理中几乎没有类似的 ground truth。

关于 Truth Deta

我经营着咨询公司 Truth Deta,我们专注于构建数据科学、机器学习和 AI 技术,与初创公司、金融公司和零售商合作,帮助他们开发真正有效的技术。如果您的公司需要这样的帮助,请通过 djtrutheta.io 联系我,我们将安排一次免费通话。

以上就是全部内容,下次见。

Was this summary helpful?

Quick Actions

Watch on YouTube

Related Summaries

No related summaries found.

Summarize a New YouTube Video

Enter a YouTube video URL below to get a quick summary and key takeaways.