2025年4月,美国斯坦福大学“以人为本人工智能研究院”发布了《2025年人工智能指数报告》(Artificial Intelligence Index Report 2025),涵盖了研发、技术性能、负责任人工智能、经济影响、科学医疗、政策、教育以及社会舆论等主题。该报告第一章系统分析了全球人工智能领域的出版物、专利、知名模型、硬件、会议及开源软件等内容,揭示了当前人工智能研发的最新趋势与结构性特征。启元洞见编译该章节的主要内容,为读者提供参考。
一
出版物
2013年至2023年间,全球人工智能相关科研出版物数量呈现指数级增长态势。数据显示,计算机科学领域标注的人工智能出版物从2013年的约10.2万篇激增至24.2万篇以上。与去年相比,增长了19.7%。更值得注意的是,人工智能研究在计算机科学领域中的占比从2013年的21.6%大幅提升至2023年的41.8%,这意味着人工智能已从计算机科学的边缘分支发展为占据主导地位的核心领域。
从发表渠道分析,2023年期刊论文占比最高(41.8%),其次是会议论文(34.3%)。此外,越来越多的论文发布在如arXiv等开放存储平台。与2013年相比,期刊和会议论文占比有所下降,说明研究发表渠道的多样化和开放程度更高。
从国家/地区看,全球人工智能科研呈现出明显的多中心格局。
2023年,全球人工智能论文产出最多的是东亚与太平洋地区(34.5%),其次是欧洲与中亚(18.2%)和北美(10.3%)。从引用量来看,2023年东亚与太平洋地区也居首位(37.1%),北美和欧洲近年来则呈下降趋势。2023年,中国占全球人工智能论文产出比例为23.2%,超过了欧洲(15.2%)和印度(9.2%)。在引用量方面,中国也以占比22.6%领先,其次是欧洲(20.9%)和美国(13.0%)。
从行业层面分析,学术机构仍然是全球人工智能出版物的主要来源,2023年学术机构占比为84.9%(2013年为85.9%)。2023年,企业贡献了7.1%的人工智能出版物,其次是政府机构占4.9%,非营利组织占1.7%。分析2013年至2023年间数据发现,在被引次数前100的人工智能论文中,2023年美国机构贡献了50篇,中国10篇,新加坡和以色列各7篇。从机构角度看,谷歌和清华大学在2023年各贡献了8篇TOP100论文,并列第一。
在研究主题上,人工智能研究的主题分布呈现动态演化特征。2023年,机器学习(占75.7%)、计算机视觉(47.2%)、模式识别(25.9%)和自然语言处理(17.1%)仍是主流方向。值得注意的是,生成式人工智能相关研究在2023年出现爆发式增长,这与ChatGPT等大语言模型的广泛应用密切相关。
二
专利
在过去的十几年里,人工智能专利数量稳步大幅增长,从2010年的3833项增加到2023年的122511项。截至2023年,全球大部分已授予的人工智能专利(82.4%)来自东亚和太平洋地区。中国占据了全球人工智能专利授权量的69.7%,美国(14.2%)。源自美国的专利份额已从2015年的峰值(42.8%)出现明显下降。
三
知名人工智能模型
虽然衡量国家在人工智能竞赛中“领先”的方式多种多样(如期刊文章发表或引用数量、专利授权等),但一个直观的评估指标是哪些国家发布了具有影响力的模型。研究机构Epoch AI拥有一个从1950年至今的重要人工智能模型数据库,本报告从中提取了相关数据进行分析。分析这些模型可以全面展现机器学习领域在过去几十年以及最近几年的演变趋势。
数据显示,2024年美国发布了40个知名人工智能模型,中国发布了15个,欧洲仅有3个(均来自法国)。在过去十年内,美国始终是全球代表性机器学习模型的主要产出国。中国的追赶速度显著加快,尤其在大语言模型、图像生成与多模态模型方面已有一定突破。中东、拉丁美洲和东南亚等新兴地区也开始发布具有代表性的模型。
另有数据表明,2024年,近90%的模型来自产业界(2023年为60%),而非学术界或政府部门,体现出人工智能技术快速从实验室走向市场。2024年,发布人工智能模型数量最多的代表性机构包括OpenAI(7个)、谷歌(6个)和阿里巴巴(4个)。自2014年以来,谷歌以186个知名人工智能模型遥遥领先,其次是Meta(82个)。学术机构中,排名前三的分别是卡内基梅隆大学(25个)、斯坦福大学(25个)、清华大学(22个)。
模型参数量呈指数级增长,反映了模型结构复杂性的提升、数据可用性的增加、硬件性能的改进以及更大模型在实际应用中被证明的有效性。例如,从GPT-2的15亿参数跃升到GPT-4的数千亿参数。此外,随着模型参数数量的增加,用于训练人工智能系统的数据量也在增加。根据Epoch AI的数据,大语言模型训练数据集的规模大约每八个月翻一番。因此,模型训练时间显著延长,一些先进模型,例如Llama 3.1-405B,大约需要90天才能完成训练。谷歌在2023年底发布的Gemini 1.0 Ultra则大约花费了100天。有研究指出,按照当前训练数据消耗速率,到2026-2028年之间,可用于训练的高质量公共文本数据可能“耗尽”。这将促使行业探索新数据生成方式(如合成数据)、更高效的数据使用策略或知识蒸馏。
在推理成本方面,Epoch AI估计,根据任务不同,大语言模型的推理成本每年下降幅度在9倍到900倍之间。例如,OpenAI的首席执行官萨姆·奥尔特曼(Sam Altman)表示,训练GPT-4的费用超过了1亿美元。DeepSeek-V3据报道成本较低,约600万美元。但总体而言,训练仍然极其昂贵。许多公司正在通过本地部署、小模型训练、弹性调度等方式降低训练开支。
四
硬件
硬件的进步对于人工智能发展至关重要。GPU加快了复杂计算的速度,使模型能够并行处理大量数据,大大缩短了训练时间。机器学习硬件性能在2008至2024年间的年增长率约为43%,性能翻倍周期为1.9年。这意味着即使算法和模型架构保持不变,仅依赖硬件升级也能带来性能大幅跃升。Epoch AI数据显示,这一进步主要得益于晶体管数量的增加、半导体制造技术的进步以及人工智能工作负载专用硬件的开发。此外,性能水平固定的硬件成本每年会降低30%,这使得人工智能训练越来越经济实惠、可扩展,并有利于模型改进。
训练人工智能系统需要大量能源,因此机器学习硬件的能效是一个关键因素。随着时间推移,机器学习硬件的能效越来越高,每年提升约40%。尽管人工智能硬件的能效有了显著提升,但训练人工智能系统所需的总功耗仍在迅速上升。例如,2017年推出的原始Transformer模型,其功耗估计为4500瓦。相比之下,谷歌首款旗舰大语言模型之一的PaLM,功耗达到了260万瓦——几乎是Transformer的600倍。2024年夏季发布的Llama 3.1-405B,需要2530万瓦的功耗,比原始Transformer高出5000多倍。数据显示,训练前沿人工智能模型所需的功耗每年翻倍。鉴于用于训练人工智能系统的总电量随时间增加,模型所排放的碳量也随之增加。据报道,2020年发布的GPT-3在训练过程中排放了大约588吨碳,2023年发布的GPT-4排放了5184吨碳,2024年发布的Llama 3.1-405B排放了8930吨碳。2024年发布的DeepSeek V3,其性能与OpenAI的o1相当,估计其碳排放量与五年前发布的GPT-3相当。作为参考,美国人平均每人每年排放18.08吨碳。随着模型变得越来越庞大,其对环境的影响也日益显著。
五
人工智能会议
人工智能会议是研究人员展示研究成果、与同行和合作者建立联系的重要平台。在过去二十年,这些会议的规模、数量和声望都在不断扩大。2020年,疫情迫使会议在线上举行,这使得参会人数显著增加。随后,参会人数有所下降,这可能是由于会议重新回归线下形式,使得2022年的参会人数回到了疫情之前的水平。自此,会议参会人数呈现出稳步增长的趋势,从2023年到2024年几乎增长了21.7%。这不仅反映了人们对人工智能研究兴趣的增长,也体现了新的人工智能会议不断涌现。神经信息处理系统会议(NeurIPS)仍然是参会人数最多的人工智能会议,2024年吸引了近2万名参与者。
六
开源人工智能软件
GitHub项目由一系列文件组成,包括源代码、文档、配置文件和图像,这些文件共同构成了一个软件项目。自2011年以来,与人工智能相关的GitHub项目数量持续增长,从2011年的1549个增至2024年的约430万个。值得注意的是,仅去年一年,GitHub人工智能项目总数就急剧增加了40.3%。
截至2024年,美国在GitHub人工智能项目中占据了相当大的比例,贡献了23.4%的项目。印度是第二大贡献者,占比19.9%,紧随其后的是欧洲,贡献了19.5%。值得注意的是,来自美国开发者的GitHub开源人工智能项目的比例自2016年以来有所下降,并且在近年来似乎已经趋于稳定。