*新闻详情页*/>

关于斯坦福大学教授李飞飞联合创始的HAI团队发布的2026年人工智能发展报告
先看一个今年很扎眼的变化。2025年,全球91.6%的标志性模型(指具有高度影响力的AI模型)来自产业界,学术界只产出了1个。这个比例在2023年还是约60%,短短两年翻天覆地。
具体到国家,美国以50个遥遥领先,中国30个,韩国5个,剩下加拿大、法国、香港、英国各1个。从下图能直观看出这个差距有多大。
聚焦到公司层面,2025年发布标志性模型最多的是OpenAI(19个)、谷歌(12个)、阿里巴巴(11个)、Anthropic(7个)。中国AI企业里,阿里巴巴、DeepSeek、字节跳动都在榜单上。
再看研究侧。论文总量、引用总份额、专利授权数量,中国全都排第一——2024年中国占全球AI论文引用的20.6%,美国只有12.6%。唯一还能说美国领先的,是Top 100高引用论文的数量,但2024年美国和中国都是41篇,两者已经持平。中国在研究上的追赶速度比很多人预期的快得多。
今年报告里有一个细节:越强的模型,反而越不透明。OpenAI、Anthropic、谷歌的顶级模型,现在连参数量、训练数据规模、训练时长都不再公开了。
人才方面也出现了一个很反常的信号——美国吸引AI研究者和开发者移入的数量,比2017年暴跌了89%,仅去年一年就下降了80%。美国还是全球AI人才最密集的地方,但新人才流进来的速度是10年来最低的。从下图能看到各国的人才净流入/流出情况。
图3|各国AI顶尖作者和发明者净流入/流出情况,2010-2025(来源:Zeki Data)
再来看一个数字,训练一个顶级模型,碳排放已经到了什么量级。2012年训练AlexNet,碳排放估算是0.01吨CO₂;2025年训练Grok 4,这个数字变成了72,816吨。中间涨了将近700万倍。报告里专门做了个对比:一辆普通汽车整个使用寿命的碳排放约63吨,Grok 4一次训练就是它的1000多倍。从下图能清晰看到这个增长有多陡。
不过有个细节值得单独说:DeepSeek v3训练产生了约597吨,远低于体量相近的其他模型。这从碳排放的角度侧面印证了DeepSeek的训练效率——用更少的算力完成了同等水平的训练,消耗少,排放自然也少。
今年有个数据对比挺有意思:Gemini Deep Think在2025年国际数学奥林匹克(IMO)上拿了金牌(35分),在4.5小时内全程用自然语言作答,比去年的银牌又进了一步。但同样是顶级模型,在ClockBench上读取模拟钟表,正确率只有50.1%——人类随便拉个成年人来,也有90.1%。
这种高处强、低处弱的现象,报告里专门有个词:jagged frontier(参差前沿)。简单说就是,AI在某些方面已经超越人类,在另一些看起来很基础的事上却出奇地差,而且这不是某一个模型的问题,是现阶段AI共有的特征。
再看各家整体性能。从Arena Leaderboard(全球最大语言模型实时评测平台,由伯克利等高校主导)的Elo评分来看,截至2026年3月,几家顶级模型的差距已经小到几乎分不清:Anthropic 1503分、xAI 1495分、谷歌 1494分、OpenAI 1481分,前四名挤在25分以内。从下图可以看到这个收窄的过程。
中美差距方面,这两年多次易手。2025年2月,DeepSeek-R1和美国顶级模型一度只差5分;截至2026年3月,美国领先中国最强模型2.7%。这个差距在过去一年里一直在个位数以内反复波动,已经不是当年那种断崖式领先了。
图5|美国与中国顶级模型Arena评分对比(来源:Arena 2026)
开源和闭源的差距,去年一度缩小到0.5%,但今年又拉开了——截至2026年3月,闭源最强模型领先开源最强模型3.3%,Arena前10名里有6个是闭源模型。
还有一件事值得单独说:我们用来衡量AI进步的那些测试本身,正在出问题。对9个常用基准的检查发现,GSM8K里有42%的题目存在问题,MMLU系列里也有从2%到26%不等的无效题。另外有研究显示,Arena排行榜的结果可能部分反映的是模型对这个平台的适应性,而不是真正的通用能力。
AI智能体(Agent)方面,OSWorld(跨操作系统的真实电脑任务测试)上的成功率从12%跳到约66%,进步很明显,但还是有约三分之一的任务做不到。机器人方面:在软件仿线%,放到线%,实验室和现实之间的鸿沟依然很大。
先简单说一下负责任的AI(Responsible AI,RAI)是什么意思。就是一套规矩,要求AI开发和使用时做到不带偏见、不泄露隐私、不带安全风险,还得符合法律和道德,最终对人和社会有好处。
2025年记录在案的AI事故达到362起,比2024年的233起又涨了55%,连续多年在增。问题是,几乎所有主流模型开发者都会认真报告MMLU、SWE-bench这类能力测试的成绩,但在安全、公平这些负责任AI指标上,报告就稀稀拉拉了。
透明度不升反降。AI基金会模型透明度指数的平均分,从2024年的58分跌回了2025年的40分——在训练数据、计算资源、部署后影响这些关键环节,主要开发者今年反而说得更少了。
最新研究还发现:提高AI某一个负责任维度(比如安全性),会系统性地损害其他维度(比如准确性)。这意味着负责任AI不是线性能解决的工程问题,每个方向之间都有内在矛盾。
组织层面有些好转:有AI专项治理职位的企业岗位增长了17%,完全没有负责任AI政策的企业占比从24%降到了11%。但主要障碍还是老三样:知识不够(59%)、预算不足(48%)、监管不确定(41%)。
2025年全球AI总投资额达到5817亿美元,比2024年涨了约130%。私人投资最猛,达3447亿美元,同比涨了127.5%。其中光生成式AI就拿走了1709亿——占私人投资总额的近一半,增速超过200%。从下图能清晰看到这十几年的增长曲线年全球企业AI投资总额(来源:Quid 2025)
美国还是一骑绝尘。2025年美国私人AI投资2859亿美元,是中国(124亿)的23倍多。新获投AI公司数量上,美国有1953家,是排名第二国家的10倍以上。不过报告也专门提了,这个对比可能低估了中国的实际投入,因为中国政府引导基金2000年到2023年间估计向AI企业投了约1840亿美元,不计在私人投资里。
消费者这边有一个挺惊喜的数字:到2026年初,美国消费者每年从生成式AI工具里获得的估算总价值达到1720亿美元,比2025年的1120亿元增长了54%,而且人均价值中位数在一年内翻了三倍——其中大多数工具对用户要么免费,要么花不了几个钱。
生成式AI 3年内达到53%的人口渗透率,比个人电脑快,也比互联网快。但各国差异很大。新加坡61%、阿联酋64%,远超预期;美国只排第24名,28.3%,比很多人想的要低。
就业方面,AI的冲击已经落地了,但不是平均分配的。22至25岁的美国软件开发者,就业人数比2024年下降了近20%;同期年长的开发者人数还在增长。年轻程序员干的基础编码工作,AI已经能替代;年长的做架构和判断,暂时还替代不了。客户支持、软件开发、营销这些岗位,AI带来了14%到50%不等的效率提升——效率上去了,但对应岗位的人也在减少。越是需要复杂判断的工作,目前受到的冲击反而越小。
今年有个很反直觉的发现:在科学领域,小模型正在打败大模型。MSAPairformer是个只有1.11亿参数的蛋白质语言模型,在ProteinGym基准上超过了此前的领先方法;GPN-Star只有2亿参数,但打败了一个400亿参数的模型,参数差了近200倍,照样赢。
2025年还冒出了虚拟细胞模型这个新方向——Arc Institute的Evo 2、DeepMind的AlphaGenome等,目标是不跑实验室实验,直接预测细胞对药物和基因扰动的反应。现在还做不到完全替代实验,但方向很清晰了。
数量上,AI相关科学论文2025年约8万篇,比2024年涨了26%,占整个科学研究产出的5.8%到8.8%,而2010年这个数字还不到1%。
但泼冷水的数据也有:在天体物理学论文复现测试(ReplicationBench)上,前沿模型得分不到20%;在地球观测问题上得分33%。顶级模型在化学难题上平均超过人类专家,却在一些基础任务上离谱地出错——和技术性能章里说的参差是同一个规律。
2026年报告也把医学单独列了一章。最让人眼前一亮的数据,是AI自动生成临床笔记的大规模落地:多个医院系统的数据显示,医生花在写病历上的时间减少了最多83%,职业倦怠感明显下降,有的医院还报告了112%的投资回报率。
诊断能力方面,微软的多智能体AI诊断系统配合OpenAI的o3,在复杂病例测试中准确率达85.5%,而没有辅助工具的医生只有20%。多智能体框架相比单智能体,诊断准确率提升了7%到超过60%——幅度差很大,说明效果高度依赖场景设计。
但报告同时泼了一盆冷水:对500多项临床AI研究的综述发现,近一半依赖考试式题目而非线个AI医疗设备,但只有2.4%有随机对照试验数据撑腰。
数字很直接:超过80%的美国高中生和大学生现在用AI做跟学习有关的事,最常干的是查资料、改论文、头脑风暴。
但学校跟不上。只有一半的中学有AI相关政策,只有6%的老师说那些政策是讲清楚的。学生在用,老师不知道该怎么管,这个错位目前还没有好的解法。
高等教育里有个结构性变化值得注意:美国四年制大学CS专业招生2024到2025年间下降了11%,但AI相关研究生项目还在涨。AI博士方面,美国和加拿大的新增AI博士2022到2024年增长了22%,但增长出来的这部分,全部流向了学术界,没有去产业——这把过去十年AI博士主要去企业的趋势给逆转了。
全球范围,90%以上的国家已经在中小学提供计算机科学教育,但AI教育普及慢很多。中国和阿联酋是例外,两国都在2025-26学年开始强制推AI教育。
8. 政策:各国争着搞AI自主可控,美国对本国政府监管AI的信任度全球最低
今年政策这章有个关键词出现得很密集——AI主权,意思是国家要掌控自己的AI能力、不依赖别人。这已经成了2025年全球AI政策的核心主题。
从国家战略来看,2024年超过一半的新国家AI战略来自过去五年完全没有正式AI政策的发展中国家——非洲、中亚、中东都有国家在起草。但能力建设差距很大:2018到2025年,欧洲和中亚把国家支持的AI超算集群从3个扩到了44个,而南亚、拉丁美洲、中东和北非加在一起也就十来个。
美国国会里AI相关证人从2017年的5人涨到2025年的102人,增加了20倍。产业界证人比例从13%升至37%,成为最大证人群体,学术界降至15%。
全球来看,认为AI产品利大于弊的受访者比例从2024年的55%升到59%;但同期,说AI让自己感到紧张的比例也升到了52%。乐观和焦虑没有互相取代,而是一起在涨——越多人用AI,越多人既期待又担心。
职场里用AI的比例,新兴市场比发达国家高出不少:全球58%的员工定期使用AI工作,但印度、中国、尼日利亚、阿联酋、沙特这个比例超过了80%。
专家和普通公众对AI未来的判断,差距大得惊人。关于AI对就业的影响:73%的专家觉得是积极的,公众里只有23%——差了整整50个百分点。对经济的看法:专家69%积极,公众21%;对医疗的看法:专家84%积极,公众44%。两个群体活在同一个世界,但对这个世界的判断完全不同。
