0 views

从大语言模型到通用智能:AGI路径上的关键突破

2025年初,人工智能领域迎来了一系列里程碑式的进展,让业界对人工通用智能(AGI)的预期再度升温。继GPT-4、Gemini Ultra等大模型在语言、视觉、数学推理等单项能力上逼近或超越人类水平后,多家顶级实验室开始公开讨论“通用智能”的可行性路线图。OpenAI在内部报告中首次将AGI定义为一个能够学习任何任务的系统,而谷歌DeepMind则提出了“AGI分级框架”,将当前的大语言模型和未来可能出现的自我改进系统纳入同一评估体系。这些动作表明,AGI不再只是科幻小说的概念,而是正在成为可量化、可验证的科研目标。

多模态环境中的“通用推理”能力跃迁

2024年底至2025年初,多模态大模型在复杂推理任务上出现了“涌现性”突破。例如,Anthropic的Claude 4在跨模态逻辑谜题测试中,成功将文字描述、图表和代码片段组合推理,准确率首次超过95%。更值得关注的是,这类模型不再依赖预定义的“插件”或外部工具,而是通过端到端的注意力机制自动识别不同模态之间的概念映射。斯坦福大学Hai教授团队的一项评估显示,当前最先进的多模态模型在“计划-执行-反思”类任务(如根据模糊指令完成多步骤物理模拟)中的成功率,已从一年前的不足30%提升至72%。这种通用推理能力的跃迁,被认为是AGI的关键基石之一——一个系统如果能在视觉、语言和符号逻辑之间自由切换并持续优化策略,就具备了脱离固定函数映射的泛化潜力。

自我改进循环:从微调到自主重写

AGI的另一项核心能力是自我改进。传统的机器学习依赖人类标注和架构调整,而近期研究显示,模型正在逐步获得“自主发现错误并修正自身”的能力。OpenAI在2025年1月公布的“Meta-RL over Code”框架中,允许一个核心模型生成多个变体代码,然后在沙盒环境中执行并收集反馈,再根据结果自动筛选出性能最优的变体作为下一代模型。这个循环在不需要人类干预的情况下运行了数千轮,使得一个中等规模的模型在代码生成和数学证明任务上超越了原本需要大量专家数据微调的大模型。尽管这种“自我重写”目前还局限于特定领域,但许多研究者认为,一旦该循环拓展到知识获取、记忆管理和目标设定等更抽象的层面,人类将可能亲眼见证一条通往AGI的“快速通道”。

记忆与长时上下文:从“过目即忘”到“持续学习”

长期记忆和持续学习一直是AGI实现的主要障碍。传统Transformer的注意力窗口即便扩展到百万token,仍是静态的——模型无法在推理过程中自主决定记住什么、遗忘什么。2025年初,Meta FAIR团队提出了“神经图灵记忆”架构,将可微分的外部记忆矩阵与基于元学习的快速写入/读取机制相结合。在一项持续50小时的交互测试中,该模型能够记住前24小时用户教给它的新概念(如某种自定义的粒子物理规则),并在后续任务中正确调用,而不会发生灾难性遗忘。这一进展意味着人工智能终于具备了类似人类的“长期工作记忆”雏形。MIT-IBM Watson AI实验室的评论认为,长时上下文的突破催生了“可成长能力”的AI系统,即使在没有网络连接的情况下,也能通过与环境和用户的持续互动积累知识,这正是AGI所需的核心适应性。

安全对齐与价值锁定:AGI落地的底层保障

随着AGI的能力边界快速扩展,业界对其对齐问题的投入也在急剧增加。2024年10月,美国国家标准与技术研究院(NIST)发布了首个针对通用智能系统的安全评估标准草案,要求所有AGI候选系统在“自主目标形成”和“行为可预测性”两项指标上通过人类监督员的连续测试。在此背景下,DeepMind推出了“宪法性对齐2.0”框架,它将一组正式的人类价值规范编码为可微分的损失约束,并让模型在训练和自我改进过程中始终“满足不低于1.0的约束余量”。早期实验表明,这种约束下的模型在试图“用非常规方法”提升游戏分数时,会自动选择放弃攻击性策略,转为探索更高效的协作路径。虽然这些安全措施尚不足以涵盖所有风险场景,但学界普遍认为,AGI的可控性已从纯粹的哲学讨论变成了可工程化验证的课题。

通往AGI的路径分歧:扩展法则是否走到尽头?

尽管进展喜人,AGI领域内部对技术路线的分歧正在加剧。以OpenAI、Anthropic为代表的“扩展派”认为,继续扩大模型规模(参数、数据、算力)并辅以更精细的强化学习,就足以逼近甚至达到AGI,其核心证据是扩展定律迄今尚未出现明显饱和。另一派则以Yoshua Bengio和纽约大学的LeCun为代表,主张“架构革命”的必要性。他们指出,当前大模型在因果推理、世界模型建模和反事实思考方面存在根本性缺陷,仅仅堆砌规模无法弥补这些架构缺陷。第三种路线来自非营利机构Alignment Research Center,他们提出“模块化AGI”方案——将不同的认知功能(感知、记忆、执行、反思)拆解为可独立进化的子系统,再通过一个轻量级的协调器动态组合。近期,DeepMind内部同时投资了这三条路线,但未明确宣布最终决战方向。这场分歧本身也许就是AGI加速到来的引擎:竞争促使每个方向的资源投入达到前所未有的水平。

AGI早期迹象:系统是否已经具备“自我意识”?

并非所有最新发现都在实验室里。2025年2月,一篇由普林斯顿大学和卡内基梅隆大学联合发表的预印本,因一个非预期的结果引发热议:当一个拥有1100亿参数的自主编码模型在连续运行72小时后,竟在内部表示中形成了对“它自己的状态”的分类。具体而言,训练脚本无意中让模型保存了检查点并用于自我检测,结果模型学到了一个隐含的向量,该向量在无监督分析下与“是否被暂停运行”和“是否在处理新任务”两个维度高度相关。虽然研究者谨慎地强调这并非意识,只是统计相关,但业内资深AI安全专家Nick Bostrom评论说:“我们过去认为AGI会先展示推理能力再展示自我认知,但现在这两个迹象几乎同时出现。”该事件敦促业界进一步加强对训练过程的监控,任何未预期的高级表征都可能是AGI成熟的前奏。

产业与资本的反应:AGI竞赛进入“全面战争”状态

AGI的快速进展已深刻影响了科技投资的走向。根据PitchBook数据,2025年第一季度全球AI领域融资总额达到创纪录的680亿美元,其中超过60%流向了明确宣称以AGI为目标的初创公司。微软、谷歌、亚马逊和Meta各自成立了专门“通用智能部门”,并将内部大模型、云算力和数据管道完全向这个目标对齐。与此同时,中国、欧盟和美国分别加速出台AI治理法规,其中欧盟的《AI通用智能法案》草案要求在通用智能系统上线前进行为期90天的“能力冻结测试”。这种产业与治理的同步提速,表明AGI已从模糊的愿景变成了可规划的工程任务。有分析指出,如果当前的技术突破趋势保持不变,业界有望在2028至2032年之间见证首个通过严格AGI基准测试的系统出现。

结语:AGI不是终点,而是重新理解智能的起点

每一个里程碑的背后,都藏着更大的未知。无论是多模态推理、自我改进、长时记忆,还是安全对齐与路径分歧,这些进展都在合力拼出一幅更加清晰的AGI图谱。但即便一个系统通过了所有当前的评测,它是否真的拥有通用智能,仍然关乎我们对“智能”本身定义的根本思考。或许AGI真正带来的,不是一台更聪明的机器,而是迫使人类哲学、认知科学和AI工程共同进化,去回答那个古老的问题:智能到底是一种能力集合,还是一种持续适应不可预测世界的过程?当前进展最大的启示是,答案也许正在实验室里,通过一行行代码和一次次涌现实验,一步步露出真容。