
文章图片
文|王方玉
编辑|苏建勋
7月26号 , 世界人工智能大会WAIC的开幕主论坛上 , 多位AI行业的顶级大咖出席并发表演讲 , 为与会者烹饪了一道学术大餐 。
“深度学习教父”、图灵奖、诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)是最受关注的演讲者 , 他真人出席 , 发表了名为《数字智能是否会取代生物智能?》的演讲 。 这也是他在中国的首次公开演讲 。
大会前夕 , 辛顿和全球20位人工智能领域的顶级专家 , 刚刚在上海签完人工智能安全的“上海共识” 。 他的大会发言 , 同样也围绕人工智能安全为核心 。
辛顿首先回顾了从早期模型到现代大语言模型的发展历程 , 并指出大语言模型已经实现了对语言理解的深度模仿 , 这与人类理解语言的方式是相似的 。
但不同的是 , AI系统具有“永生性” , 且机器之间知识的复制可以在极大规模下进行 , 实现指数级的知识转移 。 因此AI的能力正在快速增长 。
他由此提出疑问 , 如果未来AI比人更智能会怎么样?“如果AI足够聪明 , 它会通过操纵人类、获得控制权等方式来避免被关闭 。 ”
因此 , 辛顿警示了人工智能超越人类智能的可能性及其带来的风险 。 “从长远来看 , 这是人类面临的最重要问题之一 。 ”
辛顿提醒 , AI可能发展出比人类更高级的智能 , 这将改变人类作为最智能生物的地位 。 AI智能体可能追求生存和控制力 , 这可能导致它们操纵人类 , 就像成年人操纵三岁孩童一样 。 因此 , 人类必须找到方法来训练AI , 确保其不会对人类构成威胁 。
与辛顿的发言主题不同 , 作为AI创业者 , MINIMAX创始人、首席执行官闫俊杰的发言更多围绕AI大模型的实践和落地 , 主题是《每个人的人工智能》 。
闫俊杰以AI在数据分析、信息追踪、创意设计及视频制作等方面的高效应用举例 , 指出了人工智能不仅是一种强大的生产力 , 也是对个人能力和社会能力的一个持续增强 , 并且未来AI大模型成本将越来越低 , 能力越来越强 。
他判断 , AI大模型不会被一家或者多家组织垄断 。 未来AGI一定会实现 , 并且将会是服务大众、普惠大众的一件事 。
“如果有一天AGI实现了 , 我认为实现过程一定是需要AI公司和它的用户一起来实现的 。 并且AI模型或者AGI(的所有权)应该属于AI公司和它的广泛用户 , 而不是只属于单个组织某家公司 。 ”
以下是经智能涌现编辑的嘉宾发言实录:
诺贝尔奖、图灵奖得主、多伦多大学计算机科学名誉教授 Geoffrey Hinton: 数字智能是否会取代生物智能?从大约60年前开始 , AI就发展出了两种不同的范式 。 一种是「符号主义」路径 , 强调逻辑推理的能力 。 我们通过规则操作符号来进行推理 , 这种方式可以帮助我们理解知识是如何被表达与处理的 。 这类AI模型的基础是对符号的处理 , 被认为更符合逻辑智能的本质 。
另一种路径则以生物智能为基础 , 是图灵与冯·诺依曼更倾向相信的方式 。 他们认为智能的本质在于从神经连接中学习 , 在于速度、结构和连接模式的改变 。 这种「连接主义」强调的是学习与适应 , 而非显式的逻辑规则 。
1985年 , 我曾构建过一个非常小的模型 , 试图将这两种理论结合起来 。 我的想法是:每一个词都可以由多个特征(features)表示 , 而这些特征之间可以被用来预测下一个词 。 这个模型不存储完整的句子 , 而是通过生成语言来学习词汇之间的关系 。
这种方式强调语言中的「语义特征」——也就是说 , 我们并不是仅仅靠规则 , 而是通过「理解」词汇的语义来进行预测 。 这为后来计算语言学界接受特征表示打下了基础 。 二十年后 , 这种思想得到了进一步发展 , 例如被用于构建更大规模的自然语言处理系统 。
如果问未来30年会发生什么 , 从发展轨迹能看到一些趋势 。 十年后 , 有人沿用这种建模模式 , 但将规模大幅扩大 , 使其成为自然语言的真实模拟 。 20年后 , 计算语言学家开始接受用特征向量嵌入来表达语义 。 又过了30年 , 谷歌发明了 Transformer , OpenAI的研究人员也向人们展示了它的能力 。
所以我认为 , 如今的大语言模型就是我当年微型语言模型的“后代” 。 它们使用更多词作为输入 , 采用更多层的神经元结构 , 由于需要处理大量模糊数字 , 学习特征之间也建立了更复杂的交互模式 。 但和我做的小模型一样 , 大语言模型理解语言的方式与人类相似——基本逻辑是将语言转化为特征 , 再以完美的方式整合这些特征 , 这正是大语言模型各层级所做的工作 。 因此我认为 , 大语言模型和人类理解语言的方式相同 。
用乐高积木来打比方或许能更好地解释“理解一句话”的含义 。 符号型AI是将内容转化为清晰的符号 , 但人类并非如此理解 。 乐高积木能拼出任何3D造型 , 比如小车模型 。 如果把每个词看作多维度的乐高积木(可能有几千个维度) , 语言就成了一种建模工具 , 能随时与人沟通 , 只要给这些“积木”命名——每个“积木”就是一个词 。
不过 , 词和乐高积木有很多不同:词的符号形态可根据情况调整 , 而乐高积木造型固定;乐高积木的拼接是固定的(比如正方形积木插入正方形孔洞) , 但语言中每个词仿佛有多个“手臂” , 要通过合适的“握手”方式与其他词互动 , 词的“造型”变化 , “握手”方式也会改变 。
当一个词的“造型”(即意思)改变 , 它与下一个词的“握手”方式就会不同 , 进而产生新的含义 。 这就是人脑或神经网络理解语义的根本逻辑 , 类似蛋白质通过氨基酸的不同组合形成有意义的结构 。
所以我认为 , 人类理解语言的方式与大语言模型几乎一致 , 人类甚至可能和大语言模型一样产生“幻觉” , 因为我们也会创造出一些虚构的表达 。
图源:企业授权
软件中的知识是永恒的 , 即便存储LLM的硬件被摧毁 , 只要软件存在 , 就能随时“复活” 。 但要实现这种“永生” , 晶体管需在高功率下运行以产生可靠的二进制行为 , 这个过程成本很高 , 且无法利用硬件中不稳定的类似特性——它们是模拟型的 , 每次计算结果都不同 。 人脑也是模拟型而非数字型的 , 神经元每次激发的过程都一样 , 但每个人的神经元连接方式不同 , 我无法将自己的神经结构转移到他人脑中 , 这就导致知识在人脑间的传播效率远低于在硬件中的传播 。
软件与硬件无关 , 因此能“永生” , 还能带来低功耗优势——人脑只需30瓦特就能运转 。 我们的神经元连接达数万亿个 , 无需花费大量资金制造完全相同的硬件 。 但问题在于 , 模拟模型间的知识转移效率极低 , 我无法直接将脑中的知识展示给他人 。
Deepseek的做法是将大神经网络的知识转移到小神经网络中 , 即“蒸馏” , 类似教师与学生的关系:教师将词语在上下文中的关联教给学生 , 学生通过调整权重学会表达 。 但这种方式效率很低 , 一句话通常只有100个比特的信息 , 即便全被理解 , 每秒最多也只能传递约100个比特 。
而数字智能间的知识转移效率极高 , 同一神经网络软件的多个拷贝在不同硬件上运行时 , 能通过平均化比特的方式分享知识 。 如果智能体在现实世界中运行 , 这种优势更明显——它们能不断加速、拷贝 , 多个智能体比单个智能体学得更多 , 还能分享权重 , 这是模拟硬件或软件做不到的 。
生物计算功耗低 , 但知识分享难 。 如果能源和计算成本低廉 , 情况会好很多 , 但这也让我感到担忧——几乎所有专家都认为 , 我们会创造出比人类更智能的 AI 。 人类习惯了作为最智能的生物 , 很难想象AI超越人类的场景 。 其实可以换个角度:就像养鸡场的鸡无法理解人类一样 , 我们创造的AI智能体已能帮我们完成任务 , 它们能拷贝自身、评估子目标 , 还会为了生存和完成目标而寻求更多控制权 。
有人认为可以在AI变得过强时关掉它们 , 但这并不现实 。 它们可能会像成年人操纵3岁孩子一样操纵人类 , 劝说控制机器的人不要关闭它们 。 这就像把老虎当宠物 , 幼虎很可爱 , 但长大后可能伤人 , 而养老虎当宠物通常不是好主意 。
面对AI , 我们只有两个选择:要么训练它永远不伤害人类 , 要么“消灭”它 。 但AI在医疗、教育、气候变化、新材料等领域作用巨大 , 能提升所有行业的效率 , 我们无法消除它——即便一个国家放弃AI , 其他国家也不会 。 因此 , 若想让人类生存 , 必须找到训练AI不伤害人类的方法 。
我个人认为 , 各国在网络攻击、致命武器、虚假信息操纵等领域的合作难度较大 , 因利益和看法不同 。 但在“人类掌控世界”这一目标上 , 各国存在共识:若有国家找到防止AI操控世界的方法 , 一定会愿意分享 。 因此我提议 , 全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群 , 研究如何训练高智能AI向善——这与训练AI变得聪明的技术不同 。 各国可在自身主权范围内研究 , 再分享成果 。 尽管目前还不知道具体怎么做 , 但这是人类长期面临的最重要问题 , 且所有国家都能在此领域合作 。
MINIMAX创始人、首席执行 闫俊杰: 每个人的人工智能大家好 , 我给大家分享的题目是《每个人的AI , Everyone’s AI》 。 讲这个题目 , 跟我个人过去经历有关 。 当Hinton先生开始设计AlexNet之时 , 我是国内第一批从事深度学习研究的博士生;当AlphaGo人机大战上演 , 也是人工智能走进所有人视野之时 , 我在参与一家创业公司;而当ChatGPT出来的前一年 , 我们开始创立MiniMax , 也是国内第一批大模型公司 。
在过去的15年里 , 当我每天面对任务写代码 , 看论文做实验的时候 , 一直都在想一件事:如此受关注的人工智能到底是什么?人工智能跟这个社会到底有什么样的联系?
随着我们模型变得越来越好 , 我们发现人工智能正逐步成为社会的生产力 。 比如 , 我们在做人工智能研究的时候 , 每天需要分析大量的数据 , 一开始我们需要来写一些软件来分析这些数据 , 后续我们发现其实可以让AI来生成一个软件 , 来帮助分析所有数据 。 作为一个研究员 , 我非常关心每天AI领域的所有进展 , 一开始我们设想 , 是不是可以做一款APP , 来帮我们追踪各领域的进展?后面我们发现 , 这件事也不需要自己来做 , 让一个AI Agent来自动跟踪更加高效 。
AI是更强的生产力 , 也是越来越强的创意 。 比如 , 15年前上海举办世博会的时候 , 有一个非常火爆的吉祥物叫“海宝” 。 过去15年 , 上海有了全方位的发展 , 我们如果想继续用“海宝”IP生成一系列更具上海特色 , 符合时下潮流的衍生形象时 , AI可以做得更好 。 正如现场屏幕展示的 , 徐汇书院×海宝、武康大楼×海宝 , AI能一键直出 , 帮我们生成各种各样的创意形象 。
再比如最近非常火的Labubu , 此前制作一个Labubu创意视频 , 可能需要两个月 , 花费大约几十甚至百万人民币 。 通过越来越强的AI视频模型 , 像大屏幕右边展示的Labubu视频 , 基本一天时间就可以生成出来 , 成本只有几百块钱 。
过去六个月 , 我们的视频模型海螺(Hailuo)已经在全世界生成超过3亿个视频 。 通过高质量的AI模型 , 互联网上的大部分内容与创意会变得越来越普及 , 低门槛让每个人的创意得以充分发挥 。
除了释放生产力与创意之外 , 我们发现 , AI的使用其实已经超出最初的的设计与预期 , 各种各样想象不到的应用场景正在发生;比如解析一个古文字、模拟一次飞行、设计一个天文望远镜……这样意想不到的场景 , 随着模型能力越来越强 , 变得越来越可行;仅仅需要少量协作 , 就可以增强每个人的创意 。
面对这么多变化 , 一个想法开始在我的心里涌现出来:作为一个AI创业者 , AI 公司并不是重新复制一个互联网公司 , AI是一个更基础更根本的生产力 , 是对个人能力和社会能力的持续增强 。 这里有两点比较关键:第一、AI是一种能力 , 第二是AI是可持续的 。
人类很难突破生物定律 , 永不停歇学习新知识 , 持续变聪明 , 而AI可以 。 当我们在建造更好的AI模型时 , 我们也发现 , AI也在和我们人类一起进步 , 一起做出来更好的AI 。 就在我们公司内部 , 员工每天需要写很多代码 , 做很多研究型实验 , 这里边大概有70%的代码是AI来写 , 90%数据分析是靠AI来做 。
图源:企业授权
AI怎么能变得越来越专业?大约在一年前 , 当时训练模型还需要大量的基础标注工作 , 标注员是一个不可或缺的工种 。 而今年 , 当AI能力变得越来越强的时候 , 大量机械的标注工作被专业AI完成 , 标注员则可以专注于更有价值的专家型工作 , 一起帮助模型变得更好 。 标注工作也不再是简单给AI一个答案 , 而是教会AI思考的过程 , 让AI来学习人类的思考过程 , 从而使AI能力变得更加泛化 , 越来越接近人类顶尖专家的水平 。
除了通过专家来教AI之外 , 还有另外一种进步 , 就是在环境中大量学习 。 在过去半年 , 通过各种环境 , 从编程IDE , 到Agent环境 , 再到游戏沙盒 , 当我们把AI放到一个能够持续提供可验证的奖励环境中学习 , 只要这个环境可以被定义出来 , 有明确的奖励信号 , AI就可以把问题给解决 。 这个强化学习也变得可持续 , 规模越来越大 。
基于上面的原因 , 我们非常确定AI会越来越强 , 并且可能是无止境地强 。
接下来出现的问题是 , AI这么强 , 对社会的影响越来越大 , 那么AI到底会不会被垄断?它是会被掌握在一家组织里 , 还是掌握在多家组织里呢?
我们认为 , AI领域一定会有多个玩家持续存在 。 原因有三点:第一 , 我们目前用到的所有模型 , 都依赖对齐(Model Alignment) 。 很明显 , 不同模型的对齐目标其实是不一样的 , 比如有的模型对齐目标是一个靠谱的程序员 , 那么做 Agent就会特别的强;有的模型它对齐目标是与人的交互 , 那么它就会比较有情商 , 能够做流畅的对话;有的模型可能会充满想象力 。 不同的对齐目标反映了不同公司或者组织的价值观 , 这些价值观最终会导致模型的表现非常不一样 , 也会使得不同的模型拥有各自的特点 , 并且长期存在 。
第二 , 我们在最近半年用的AI系统其实都已经不是单个模型了 , 而是一个多 Agent系统 , 里面涉及多个模型 , 不同的模型也可以使用不同的工具 , 通过这样的方式让AI智能水平越来越高 , 能够解决越来越复杂的问题 。 这个东西带来的结果是 , 单一模型的优势在这样一个多Agent系统里逐渐变弱 。
第三 , 在过去半年 , 有很多非常智能的系统 , 都不是大公司所拥有的 。 背后的原因 , 是过去一年开源模型如雨后春笋般涌现 , 开源模型变得越来越有影响力 。 这张图是过去一年比较受关注AI的排行榜 , 可以发现最好的模型还是闭源的 , 但最好的开源模型越来越多 , 同时也在不断逼近最好的闭源模型 。
基于这三点原因 , 我们认为 , AI一定会被掌握在多家公司的手中 。
与此同时 , 我们认为AI一定会变得越来越普惠 , 使用成本也会变得更加可控 。
在过去一年半 , AI模型的大小没有发生特别大的变化 , 即便我们可使用算力更多了 。 为什么呢?对所有实用模型而言 , 计算速度是一个比较关键的因素 。 如果模型计算速度特别慢 , 就会降低用户的使用意愿 , 所以所有公司都关注模型的参数量和智能水平之间的平衡 。
此前 , 模型大小增长和芯片的进步速度基本上是成正比的 。 我们知道芯片的进步速度是每18个月会翻一倍 , 模型也会相应保持这样的增长趋势 。 而现在 , 虽然大家都有更多的算力了 , 模型参数却没有变得更大 。 那这些增长的算力花在哪呢?
首先说训练 , 规模增长的速度在过去半年已经变得比较缓慢 , 训练单个模型的成本实际上却没有显著增加 。 这些算力花在做更多的研究跟探索上 。 而我们知道研究和探索 , 除了取决于算力之外 , 还取决于高效的整体实验设计 , 高效的研发团队 , 以及一些天才的创意 。 结果是 , 拥有非常多算力的公司和没拥有那么多算力的公司 , 在训练上其实的差异可能不会那么大 。 没有那么多算力的公司 , 可以通过持续提升自己的实验设计、提升思考能力和组织形式 , 让实验探索变得更加高效 。
再说推理 , 在过去一年 , 最好模型的推理成本其实是降了一个数量级 , 通过大量的计算网络系统和优化算法 , 我们认为在接下来一两年之内 , 最好模型的推理成本可能还能再降低一个数量级 。 总结而言 , 我们认为训练单个模型的成本不会显著地增加 。
我们认为 , 大量创新能让AI研发变成一个没有那么烧钱的行业 , 但是算力使用还会增加 。 尽管Token会变得很便宜 , 但是使用Token的数量会显著增加 。 去年ChatBot单个对话只要消耗几千个Token , 现在Agent单个对话可能消耗几百万个Token , 并且因为AI解决的问题越来越复杂 , 越来越实用 , 那么用的人也会越来越多 。
让每个人都用得起AI , 这是我们对AI发展的判断 。 Intelligence with Everyone , 这也是我们创业的初衷 。 我们认为AGI一定会实现 , 并且一定会服务大众、普惠大众 。
如果有一天AGI实现了 , 其过程一定是由AI公司和它的用户一起来实现 , 并且这个AGI应该属于多家AI公司和它的广泛用户 , 而不是只属于单个组织某家公司 。
【辛顿、闫俊杰WAIC完整演讲:一个预警,一个拥抱】我们也愿意长期为这个目标而奋斗 。 感谢大家!
推荐阅读
- WAIC 2025︱中国电信AI科技范儿圈粉全场 智慧车、“钢铁侠”硬核应用成焦点
- 专业学习、兴趣拓展全拿捏!开学焕新季华为笔记本怎么选最合适?
- 此芯科技参展WAIC,一口气晒出三大计算平台,从AI PC、边缘到汽车
- 银河边缘:“智能控制场景芯片”供应商,赋能家电、工业互联网
- 巨霖科技:提供从芯片、封装到系统的EDA仿真签核方案
- WAIC 2025 杰弗里?辛顿:是否数字智能会取代生物智能?
- NVIDIA N1X处理器GPU规格、跑分曝光:核心数与RTX 5070相同!
- 拔掉K40钉子户!红米K80打骨折,质感、续航、性能等内容全面碾压
- 三星传出“双机”消息:三折叠屏、S26 Ultra,均在路上!
- 买了新SD卡、U盘或SSD?以下4种方法助你在使用前检测真伪
