《AI学习专栏》是您的AI信息获取加速器和AI学习指南,内容包括
联系作者
《AI 现状报告》已连续发布第八年,是目前关注度最高、最受信任的开源出版物,专门追踪人工智能领域的进展。它汇集了过去 12 个月中最重要、最具启发性的研究成果与行业动态。我们的目标是为 “AI 现状、领域发展方向及技术突破对未来的意义” 这一持续讨论提供信息支持,并推动讨论深化。
本年度报告将围绕 AI 生态系统的六大核心维度展开分析:
主流 AGI 竞争者的高管(以马克・扎克伯格为代表)已将 “AGI 努力” 重新包装为 “超级智能(Superintelligence)”。目前无人能明确其定义,但该概念 “具煽动性,能吸引关注”。
“开发超级智能的目标已近在眼前…… 我相信这将是人类新纪元的开端。”
—— 马克・扎克伯格,2025 年 Meta 超级智能实验室备忘录
前沿超级智能的研发成本极高,已进入 “万亿美元级别”:
AI 已从 “小众领域” 转向 “创业与投资主流”。Specter 对 “5500 多万家私有企业” 的排名(追踪 “团队增长、产品智能、融资、财务、关注度” 等 200 + 实时信号)显示:
特朗普第二任期 “推出了第一任期曾暗示但未完全实施的强化政策”:
美国政府 “提出超 100 项政策,以确保 AI 创新与全球领导地位”,但 “美国官僚体系能否执行仍存疑”。23 页计划的核心要点包括:
美国政策 “从‘广泛扩散管制’转向‘出口主导战略’”。“美国 AI 出口计划” 将 “算力、模型、云服务、合规” 打包为 “美国政府认可的‘美国 AI 栈’”,提供给 “选定合作伙伴”。
核心目标是 “制定标准、建立依赖、对抗中国‘数字丝绸之路’策略”。
OpenAI 新推出的 “经济价值任务基准 GDPval” 显示,AI 在 “44 个职业类别、1320 项任务” 中,“多个领域已接近人类专家水平”,预示知识工作者或将面临职场变革。
下方追踪图表 “基于 GDPval 结果,对不同职业的‘受 AI 干扰程度’进行排名”。
主持人:黄仁勋(Jensen),很高兴再次与你和我的搭档邓克拉克(Clark Tang)相聚。真不敢相信,欢迎来到英伟达(Nvidia)!哦,你的眼镜真不错,戴在你脸上特别合适。但问题是,现在大家可能会让你一直戴着这副眼镜了,他们会说 “戴上那副红色眼镜”。我敢保证会这样。
距离我们上次播客已经过去一年多了。现在你们超过 40% 的收入来自推理业务,但推理技术正迎来新的突破,这要归功于 “推理链”(Chain of Reasoning)技术,对吧?它的效率预计会提升十亿倍,甚至百万倍、十亿倍,没错吧?
黄仁勋:没错。但大多数人还没有完全意识到这一点。我们现在讨论的这个行业,本质上正处于一场工业革命之中。说实话,自上次播客后,我感觉我们每天都在延续当时的对话 —— 在 AI 领域的时间维度里,这一年多差不多相当于 100 年。
我最近重温了上次的播客,当时我们聊到的很多内容都很突出,其中最让我印象深刻的,是我当时拍着桌子强调的一个观点。记得那时候,预训练领域正处于低谷,人们都在说 “预训练的时代结束了”“我们建得太多了”—— 那大概是一年半以前的事。而我当时说,推理效率的提升不会止步于 100 倍、1000 倍,而是会达到 10 亿倍。现在,我们正朝着这个方向发展。
主持人:今天,我邀请到的嘉宾是理查德・萨顿(Richard Sutton)。他是强化学习(Reinforcement Learning,RL)领域的奠基人之一,也是该领域众多核心技术的发明者,比如时序差分学习(TD Learning)和策略梯度方法(Policy Gradient Methods)。凭借这些贡献,他获得了今年的图灵奖(Turing Award)—— 如果你不了解的话,这个奖项基本上相当于计算机科学领域的诺贝尔奖。理查德,恭喜你!
萨顿:谢谢你,德拉克(Dracus),也感谢你邀请我来参加这个播客。
CUDA可以说是英伟达的科技护城河,那么CUDA是什么时候发布的,作用是什么呢?
这就得说早起电脑,计算核心就一个CPU,CPU虽然计算速度快,但是需要串行计算。即使是多任务,也是切换计算,而不是同时计算。这样日常办公的计算量是可以应付的,但是玩游戏,页面渲染计算量比较大的时候,就会很困难。例如一个画面是汽车爆炸,满天的碎片,每个碎片的运动轨迹,CPU一个个算,CPU不用干别的了。
所以这个时候,就出现了GPU,GPU和CPU的区别是,可以并行计算。
比如爆炸,每个粒子的运动轨迹单独计算,并行计算效率就会提高很多,这就是GPU的能力。所以打游戏得装显卡,用CPU算他有点扛不住。
有朋友又说,那我所有计算都用GPU行吗,并行计算效率高呀。
这就得说两点,
第一,GPU适合简单的运算,对于复杂的计算,还是需要CPU才能处理。
第二,GPU早起只能识别图形数据,比如程序员想要做一个矩阵乘法,还得先把数据包装成图形数据,图形通过GPU计算,拿到图形数据的结果之后,还得把想要的结果从图形数据里分离出来。听着感觉是在脱裤子放屁,但你不这么用,还真就用不了。
针对第二点,英伟达做出了优化。2006英伟达发布了CUDA,目的是让程序员更方便地发挥GPU的能力实现通用计算,就用调接口就行了,不用单独处理图形逻辑,就能实现并行计算。