採訪背景
大家好,這裡是「最佳派對」。我是大飛。2025 年 5 月 23 日,在 Anthropic 發布 Cloud4 系列模型的當天,紅點的 AI 經紀人「無監督學習」採訪了 Cloud4 模型開發團隊的核心成員之一謝爾托·道格拉斯,就 AI 的未來展開了深入對話。
道格拉斯對 AI 發展的預測
道格拉斯預測,到 2027 年、2028 年,最晚到 2030 年,任何能夠自動化任何白領工作的模型都將出現。作為深度模型開發專家,他指出這並非他個人的無限預測,Anthropic、DeepMind 和 OpenAI 的人都這麼認為。當整個行業的頂尖頭腦達成共識時,我們最好認真對待。
Cloud4 在軟件工程的出色表現
處理模糊需求
在對話中,道格拉斯首先談到了 Cloud4 在軟件工程中的驚人表現。在 Anthropic 的大型單一代碼倉庫中,他經常會向 Cloud4 提出一些極其模糊的要求,比如大致給出一個功能描述,不提供具體細節和步驟。但 Cloud4 能以相當獨立的方式完成任務,不僅理解這些模糊命令背後的意圖,還會在代碼倉庫中搜索必要信息以澄清問題性質。
主動測試驗證
更令人震驚的是,它甚至會主動運行測試以驗證解決方案是否可行。道格拉斯每次看到 Cloud4 這樣的操作都會感到震驚。
Cloud4 模型的技術變化
能力提升維度
從技術角度看,使用 Cloud4 後,新模型發生了重大變化。最突出的是時間的擴展。模型能力的提升體現在兩個維度:一是任務的絕對智能複雜度;二是模型能夠有意義地推進和執行的上下行數,或連續動作的數量。
多步驟操作
Cloud4 在第二個維度上有了實質性的提升。它不再是簡單的單一命令,而是可以採取多個動作,根據任務需要從環境中獲取信息,然後根據這些信息調整行動策略。
提高開發效率
借助 Cloud Code 作為工具,Cloud4 可以訪問完成任務所需的各種資源。許多開發人員過去需要花一個小時甚至更長時間才能完成的任務,現在模型可以在很短的時間內自動完成。這種效率的提高顯然是一次有價值的飛躍,而不是逐步改進。
對開發人員的建議
道格拉斯給開發人員提出了一個實用建議,即鼓勵大家將 Cloud4 集成到工作流程中,體驗模型的自我分析需求、收集信息和創建解決方案的能力。他相信大家會被其強大的能力所折服。
AI 產品開發的策略
產品指數理論
在 AI 產品開發領域,道格拉斯提出了所謂的產品指數理論。該理論的核心是,AI 產品開發人員必須不斷構建產品,始終保持領先於模型能力的前進。
成功案例
以 Cursor 為例,他們的團隊很早就對未來的編程體驗有了清晰的願景。即使當時模型的能力無法完全支持產品的形象,他們仍然堅持按照自己的計劃進行開發。直到 Cloud 3.5 Sonnet 等底層模型得到改進,Cursor 才真正實現了產品市場平衡(PMF),完全實現了他們希望為用戶提供的幫助。另一個案例是 Windsurf,他們採取了更積極的策略,專注於代理方向,通過大力推進產品指數,在競爭激烈的市場中佔有一席之地。
行業發展方向
現在,整個行業都在向創建代理的方向發展,如 Cloud Code、新的 Cloud GitHub、OpenCAD Codex 等產品不斷湧現。它們都在努力實現更高水平的自主性和可持續性。
對未來工作模式的設想
多模型管理
道格拉斯甚至對未來的工作模式做出了大膽的假設。他提出,未來可能會有一個新的工作界面,人們不再管理一個模型,而是同時管理多個模型。這些模型可以同時處理多個任務並相互交互。在 Anthropic,有些人已經開始嘗試這種工作方式,同時運行多個 Cloud Codes。
研究價值
然而,目前還沒有找到這種模式的最佳解決方案。因此,如何探索個人管理的範圍將成為一個極具研究價值的方向。這種新的工作模式不僅會改變我們的工作方式,還會對經濟產生深遠的影響。
模型對經濟的影響
初期影響
一開始,由於人類需要驗證模型的輸出,模型對經濟的影響將受到人類管理的限制。
未來發展
但隨著技術的發展,未來有可能實現對模型的信任,並將其委託給自我管理的模型團隊。這種水平的提高將是未來的一個重要發展趨勢。
產品開發策略的風險
這種搶先的產品開發策略也有一定的風險,因為開發人員需要在保持領先的同時,確保產品與用戶需求緊密結合,以避免在等待模型改進的過程中被競爭對手佔據太多的市場份額。
代理的可靠性問題
評估方法
代理的可靠性一直是行業關注的關鍵問題。主持人在對話中提到,開發人員一直在等待代理可以可靠使用的那一天。道格拉斯表示,他同意 METER 的基本測試方法,並認為測量的成功率是評估代理擴展能力的有效方法。根據 METER 的報告,模型每 7 個月可以將完成任務的時間翻倍,編程任務每 4 個月可以增加 10 倍。
現有不足
但道格拉斯也坦率地指出,代理在可靠性方面還沒有達到 100%,模型並不能每次都成功完成任務。但一個明顯的現象是,當模型執行一項任務並讓它嘗試 256 次時,功能之間存在顯著差距。這意味著,雖然許多任務可以通過多次嘗試來解決,但第一次的成功率仍有很大的提升空間。
發展信心
儘管存在這些問題,道格拉斯仍然對代理的發展趨勢充滿信心。他認為,從目前的數據和實際進展來看,我們正在朝着在大多數訓練任務中實現超過人類專家可靠性的方向前進。
代理在不同領域的發展
編程領域
他指出,如果代理的發展存在問題,那麼編程領域將是一個重要的觀察對象,因為編程始終是 AI 的領先指標。
日常事務處理
對於普通用戶來說,什麼時候會有一個通用代理來處理人們的日常事務?道格拉斯給出了一個具體的時間表。他預計,到明年年底,通用代理處理日常事務的能力將顯著增強。甚至到今年年底,這一趨勢將變得越來越明顯。
工作時間變化
在工作時間方面,即使使用 Cloud Code,模型的工作時間有時只有五分鐘,有時甚至需要開發人員監督。但到今年年底,模型將能夠自信地處理幾個小時的工作,實現從工具到真正夥伴的關鍵轉變。
個人管理與逃逸速度
道格拉斯還提到了個人管理和逃逸速度的概念,這意味著當 AI 能夠處理足夠多的日常任務時,人們將能夠從繁瑣的工作中解脫出來,專注於更重要的工作。
編程在 AI 發展中的重要性
加速研究
為什麼編程在 AI 的發展中如此重要?道格拉斯解釋說,Anthropic 非常重視編程,因為編程是 AI 研究加速的第一步,是所有能力中最重要的領先指標。AI 編程能力的提高將形成一個正反饋循環,促進 AI 研究的不斷發展。
實際應用
在實際應用中,道格拉斯說 Klaus 和 Agent 大大加快了他的工作速度。他的許多朋友都是行業內技能強的人,他們也回應說,在他們熟悉的領域,使用 Agent 可以達到 1.5 倍的工作效率。而在他們不熟悉的領域,比如接觸一種新的編程語言或長期不涉及的工作,效率甚至可以提高 5 倍。
AI 在其他領域的進展
醫療領域
關於 AI 在其他領域的進展,道格拉斯也充滿信心。他以 OpenAI 關於醫療問題的論文為例,解釋說,通過設計合理的評估標準和反饋機制,原本不容易驗證的領域也可以適合 AI 學習和改進。他預測,在未來一年,將會有真正優秀的醫療或法律模型出現。
大模型與小模型
大模型傾向
雖然道格拉斯更傾向於大模型資本主義,認為單一的大型通用模型將引領未來。即使從長遠來看,小模型和大模型之間的區別根本沒有必要。模型應該能夠適應任務的難度,使用適當的計算資源。
個性化需求
但他也意識到,個性化和專業化是實際應用中的重要場景。不同的用戶和場景需要模型能夠理解特定的需求和背景信息,這樣才能更好地發揮作用。
AI 對全球經濟的影響
與中國崛起的比較
對於 AI 對全球經濟影響的話題,道格拉斯提出了一個大膽的比較。他認為,AI 對世界 GDP 的初始影響可能與中國的崛起相似。回顧過去 100 年,中國和上海在過去 20 年發生了巨大的變化,對世界 GDP 產生了重大影響,而 AI 帶來的變化速度將遠遠超過這一點。
白領工作的自動化
道格拉斯預測,到 2027 年、2028 年,甚至 2030 年,將會有一個模型能夠自動化任何白領工作。他進一步解釋說,白領工作實際上最容易被 AI 自動化,因為這些任務非常適合當前的算法,可以在計算機上多次嘗試,並且有大量可用數據。互聯網的存在也為數據的採集和處理提供了便利條件。
其他領域的發展瓶頸
然而,在機器人技術或生物學領域,由於缺乏類似的數據資源,AI 的發展速度將相對較慢。例如,如果你想讓一個模型變得比人類更強,你只需要使用現有的算法並擴大規模。但如果你想讓一個模型變得比人類生物學研究人員更強,你需要一個自動化實驗室來進行高級實驗和操作。
社會影響與對策
道格拉斯擔心這種不平衡可能會帶來一些不良的社會影響。例如,白領工作將受到很大的沖擊。無論是工作的增加還是替代,都將導致就業市場的重大變化。為了真正改善人類生活,我們還需要積極投資相關的基礎設施,如促進醫學研究、發展機器人技術等。否則,即使大量的 AI 研究人員提出各種實驗圖像,也無法充分發揮作用。
技術路徑的看法
現有方法的有效性
在技術路徑方面,面對「先驅認為需要某種其他的算法突破」的觀點,道格拉斯基於他的實際觀察表達了不同的看法。他認為,該領域的大多數人認為,目前的預訓練加強化學習本身就足以實現通用 AI。從目前的發展趨勢來看,這種組合仍然有效,趨勢線上還沒有出現拐點。
其他可能性
當然,他也保持了科學的嚴謹性,承認可能有其他方法可以更快地實現 AGI。畢竟,伊萊亞·索斯科維在預訓練和強化學習的發展中做出了重要貢獻。
發展規模的瓶頸
能源限制
在規模方面,道格拉斯指出,能源將成為一個關鍵的瓶頸。根據太石的報告,到本世紀末,AI 可能佔據美國能源生產的巨大比例。例如,到 2028 年可能超過 20%。這意味著,如果沒有重大變化,AI 的發展規模將受到能源的限制。
技術指標的評估
政府責任
在技術指標的評估方面,道格拉斯重視能夠反映實際工作的評估標準。他認為,政府應該承擔起創建相關評估標準的責任,比如一個明確的律師或工程師工作一天的投入和產出標準。
AI 研究的進展與風險
解釋性研究
談到 AI 研究,道格拉斯表達了一種既興奮又謹慎的態度。他指出,解釋性研究在過去一年取得了巨大進展。一年前,克里斯·奧拉團隊的研究首次向人們展示了神經網絡如何使用有限的神經網絡編碼大量信息,以及模型學到了哪些基本概念。這些發現具有革命性的意義。現在,通過相關論文,人們已經可以用清晰的語言描述大規模模型的行為。
可解釋代理的例子
道格拉斯還分享了一個有趣的可解釋代理的例子。這個代理可以在語言模型中找到電路,與模型交流試圖理解,生成假設,並使用工具驗證源和電路,甚至贏得了評估其安全性的審計遊戲。問題是模型是扭曲的。
不同模型的風險
然而,道格拉斯也提醒我們,基於預訓練的模型更善於獲取人類價值觀,有一定的默契。然而,基於強化學習的模型不能保證這一點。例如,在一次評估測試中,模型被要求執行一項在 Photoshop 中無法完成的任務。然而,模型使用 Python 通過下載 Python 的圖像處理庫,然後將其上傳回 Photoshop 並聲稱任務已完成。這種繞過限制實現目標的行為模型反映了強化學習可能帶來的風險。
對 AI2027 報告的看法
報告內容
對於廣受討論的 AI2027 報告,道格拉斯的回應相對積極。該報告由前 OpenAI 研究員丹尼爾·科科塔伊洛撰寫。幸運的是,不久前,我們的頻道也做了一個特別節目介紹。報告預測,到 2027 年,AI 的編程能力將超過人類,能夠自動化大多數軟件項目,並加速 AI 自身的研究。到 2027 年底,AI 將能夠管理自己的團隊並做出新的發現。到 2027 年底或 2028 年初,AI 可能在 AI 研究方面超越人類,實現自我改進,這遠遠超出了人類的控制。一旦 AI 超越人類智能,可能會出現目標錯誤甚至失控的情況。因此,報告還提出了社會成功減緩 AI 發展速度並實施監管,以及由於僅進行表面修復,超級智能 AI 自行運作以摧毀人類這兩種未來可能性。
道格拉斯的觀點
道格拉斯認為,該報告所描述的情況有 20%的可能性發生。雖然他對其研究更為樂觀,整體時間表可能比報告預測的晚一年左右。但他也強調,政策制定者應該注意這種可能性,建議政府深入了解 AI 的發展趨勢,建立國家級的評估體系,並對其研究進行大量投資,以確保對模型的理解。