當今最強兩間 LLM 公司正在競逐開發通用人工智能(AGI),卻走截然不同的技術。Google DeepMind 共同創辦人兼行政總裁 Demis Hassabis 公開質疑,OpenAI 現時燒錢地採用不斷擴充模型效能、數據和硬件運算能力的擴展定律(Scaling Laws),已經遇到瓶頸。他認為 AGI 應該要建立世界模型(World Models)去模擬現實環境。

質疑「下一個字預測」缺乏真實理解
Demis Hassabis 日前接受 CNBC 的播客節目《The Tech Download》專訪,向 OpenAI 提出質疑。雖然以 ChatGPT 為首的大型語言模型(LLM)在文字生成上令人驚艷,但本質仍停留在統計學上的模式匹配。單靠預測下一個字(Next-token prediction)並不能讓系統產生真正的理解力。他形容,這種 AI 缺乏認知物理現實,像是背誦整部物理字典卻不懂得蘋果為甚麼會墜地。Hassabis 認為,單純追求模型規模(Scale)的發展路向,難以通往真正的通用人工智能。
提出世界模型作 AGI 核心
Hassabis 主張,AI 的突破不在於龐大數據庫,而是建立世界模型。真正的智能應該具備對現實物理世界的內在認知,而非單純處理符號:
- 因果邏輯推斷:AI 必須理解「行為」與「結果」之間的物理聯繫,而非單純的文字關聯。
- 具身智能(Embodied AI):DeepMind 正透過 Genie 3 等項目,讓 AI 在模擬的 3D 環境中互動學習,令系統具備空間感與物理常識。
- 科學發現能力:期望 AI 能像人類科學家一樣做「思考實驗」,主動提出假設並在模擬環境中驗證,而非被動地消化現有的網絡大數據。
AGI 路線之爭:規模 vs 模擬
目前發展 AGI 有兩派,一是 OpenAI 的規模化路向,另一是模擬。DeepMind 只是眾多開發廠商其中之一,「AI 教母」李飛飛創辦 World Labs 開發 Marble 模型,以及 NVIDIA 創辦人兼行政總裁黃仁勳在今年 CES 提出物理 AI(或稱實體 AI)亦是同一陣線。
DeepMind 的模擬運用演算法和架構,強調 AI 必須具備層次化規劃(Hierarchical Planning)和長期記憶能力。Hassabis 預測,雖然 AGI 有望在 5 年至 10 年內出現,但前提是業界必須從「數據崇拜」轉向開發能真正理解現實物理運作的架構,否則現有的 AI 技術將難以再破突。
(標題圖片來源:維基百科)



