
作者|苏子华
编辑|靖宇
过去 , 对于普通人来说 , 考试几乎决定一切 。 “优绩主义”的单一评判体系在无形中将社会分层 。 而今天 , AI已经比绝大多数人更有用了 , 当AI用一元钱的成本 , 完成一个人类博士的工作时 , 曾经代表“自我价值”的学历、职位、履历.....正开始失效 。
面对冲击 , 这几年 , 关于 AI 的讨论多集中在“怎么办”——工作被取代了怎么办、该学什么新技能、隐私要怎么保护等等 。
而在学者张笑宇看来 , 重要的不是“怎么办” , 而是“怎么看” 。
“就像蒸汽机刚出现时 , 人们关注它牵引火车的功能 , 但后来才发现它对整个社会结构的深刻影响 —— 农耕阶级消失 , 工人阶级、城市中产阶级和企业主崛起 , 政治结构也随之改变 。 ”
他认为 , AI注定会在所有需要智能活动的领域 , 以比人类高几千倍的效率工作——这是理解 AI 对社会结构冲击的数学基础 。 在此数学逻辑下 , 社会结构、家庭形态、政治、教育体系 , 甚至人类关系的基本模式 , 都将被重新洗牌 。
从现在开始 , 人们只需要等待10 到 20 年看它展开 。
张笑宇是华东师范大学世界政治研究中心特聘研究员 , 在德国柏林自由大学攻读哲学博士后 , 他没有选择进入学术界 , 回国后做过VR创业 , 拍过网络电影 , 又给出海企业做过咨询 。 后来 , 他开始写书 , 研究技术史 , 尤其关注技术如何影响人类社会 。
他刚出版的《AI文明史》 , 提出了一个颠覆性的视角:尝试放弃“人类中心主义” , 去理解正在发生的时代巨变 。
里面也有不少颠覆性的观点 , 比如 , “1% 的人怎么对待 99% 的人 , AI未来就会怎么对待我们”、“人与人之间的社会鸿沟可能瞬间拉大到 “物种级””、“我们这代人是玩游戏、聊 QQ 长大的 , 我的孩子可能一生要和五六个 AI 谈恋爱” 。
今年6月 , 我们围绕这本书与他做了次访谈 。 聊了聊如果我们不再是地球上最聪明的物种 , 该如何重新认识自己?当社会结构被彻底重塑 , 曾经追求的意义 , 是否仍然值得坚持?试图以新的视角 , 重新理解自身的处境 , 理解社会的走向 。
以下内容基于张笑宇的讲述整理而成:
社会结构 , 正被全方位改变很多思想家面对新技术 , 第一个问题是 “怎么办” 。 比如两年前大家讨论 AI 对社会的影响 , 基本都是应对层面的问题 。
但我后来发现 , 真正的问题不是 “怎么办” , 而是 “怎么看” 。
就像蒸汽机刚出现时 , 人们关注它牵引火车的功能 , 但后来才发现它对整个社会结构的深刻影响 —— 农耕阶级消失 , 工人阶级、城市中产阶级和企业主崛起 , 政治结构也随之改变 。
因此 , 我在书里提出了 4 个基本原理:涌现、人类当量、算法审判、文明契约 , 作为 “怎么看” AI 的基点 。
第一个叫 “涌现原理” 。 “涌现” 是生物学概念 , 简单说就是 “超大规模加简单规则等于跃迁”:初始层面的规则可能很简单 , 但规模足够大后 , 会涌现出神奇的现象并进化 。 比如从单细胞到器官 , 从神经元到大脑(涌现出自我意识);从个体策略到集体智慧 , 比如单个蚂蚁的策略很简单(遍历某个区域) , 但蚁群在觅食、筑巢、寻路时总能找到最优解 , 这就是涌现 。
人类智能和 AI 智能很可能本质上都来自涌现 。 对人类来说 , 神经元足够多、大脑结构足够复杂 , 智慧和自我意识就自然 “蹦” 出来了 。 我们解释不了 , 可能是因为无法超越自身维度观察自己 , 但不管怎样 , 结果就是涌现了 。 对 AI 也是如此:大语言模型规模足够大、参数足够多 , 就会出现 “scaling law(规模法则)”—— 规模越大 , 智能越高 , 这也是涌现 。
很多人讨论智能、思考、心灵的本质 , 但其实这不重要 , 因为我们都解释不清 。 哲学界吵了 2000 年也没说清智能的本质 。 “涌现”决定了第一层次无法超越自身 , 去观察更高层次 。 这也是图灵测试的逻辑:放弃讨论智能的本质 , 只通过 “能否区分机器与人的回应” 来判定 AI 是否具备智能 。 所以涌现原理告诉我们 , 人类智能和 AI 智能或许可以被同等看待 。
第二个基点叫 “人类当量” 。 这不是我提出的 , 是 OpenAI 前研究员利奥波德·阿申布伦纳(Leopold Aschenbrenner)提出的 。 它指 AI 生产智力的效率与人类的数学关系 。
假设智能(包括计算、美术、音乐等)最终都能用语言表达 , 那就可以用 “token” 量化 。 我们聊天每分钟大概产生 200 个 token , 一天撑死 20 万个;AI 一秒钟能处理 100 万个 token , 关键是成本只要一块钱 。 你一天给我一块钱我会饿死 , 但 AI 完成五倍于我的工作量只要一块钱 , 而且成本还在因技术进步不断下降 。
质量上 , AI 首先通过了特定测试 , 现在已达到博士水准 —— 萨姆?奥特曼前几天采访时说 “没问题” 。 人类中博士占比不超过 1% , 所以生成式 AI 在质量上能替代 99% 的人 , 数量上效率比人类高上千倍 。
因此 , 它注定会在所有需要智能活动的领域 , 以比人类高几千倍的效率工作 。 这是理解 AI 对社会结构冲击的数学基础 。 就像知道蒸汽机效率比马高几百上千倍后 , 我们就知道它会全方位改变社会结构 。 讨论 AI 替代工作、颠覆社会结构 , 甚至影响家庭和情感生活 , 基础原理都是这个 。
比如情感 , 人与人总会吵架 , 因为有主体性 , 但 AI 完全可以避免 。 你跟爱人表达爱意要写诗、说甜言蜜语 , AI 做这事的效率比你高得多 , 还能精准匹配对方的情绪需求 。
这么想的话 , 未来我们可能生活在一个情感语料极其充盈的世界 —— 不缺甜言蜜语和情绪价值 , 那会怎样?开玩笑说 , 我们这代人是玩游戏、聊 QQ 长大的 , 我的孩子可能一生要和五六个 AI 谈恋爱 。
这种数学逻辑一旦成立 , 结果就注定了 。 就像 3G 和智能手机出现后 , 移动互联网必然改变社会(经济行为、生活都转向手机) , 我们只需等 10 到 20 年看它展开 。 现在 AI 也是如此 , 数学逻辑已成立 , 我们可能要等 10 到 20 年看它的影响慢慢显现 , 但后果可能深刻得多 。
人与人之间的社会鸿沟可能瞬间拉大到 “物种级”第三个基点我称之为 “算法审判” 。 一旦智能能以极低成本量产 , 经济和社会结构就会变化:部分领域会进入相对富裕和充盈的社会 。
比如虚拟世界 , 代码生产效率能提升 100 倍 , 那么 APP、游戏、娱乐、电影、短视频等的供给能力会激增 , 获取这些娱乐的成本会下降 。
更多服务也是如此:未来法律服务、金融服务、政府服务的成本可能降低 100 倍;甚至制造业 , 若代码成本足够低 , 机器人和生产的成本也会下降 , 粮食、日用品等可能极大丰富 。
但并非所有资源都会廉价 , 有些会更重要 , 比如算法和算力 —— 它们掌握在 1% 的人手中 , 这些人能通过掌控资源获取权力、利润 , 扩大供给 。
拥有算力和不拥有算力的人之间 , 社会鸿沟可能瞬间拉大到 “物种级”:1% 的人不会被 AI 替代 , 而 99% 的人在资本主义体系中 , 根本无法与成本低上千倍的 AI 竞争 , 他们的经济价值、人生意义会急剧下降 , 甚至被经济系统抛弃 。
若不想陷入极端阶级斗争 , 就需要三层治理架构 。
第一层 , 大家都在讨论 UBI(全民基本收入) , 但 UBI 只解决生存问题 。 人类历史上有很多类似案例:罗马皇帝给公民发免费面包(因为当时的粮食供应充足);埃及从二战到现在 , 用苏伊士运河的收入补贴 “馕(一种面包)” 的价格 , 埃及人买一个馕只要 2 分钱 , 一天能买 5 个 , 所以再穷也不会饿死 。 以今天的技术和制度水平 , 保障基本生存完全没问题 —— 人可以穷 , 但不会饿死 。 当然 , 有些国家连这都做不到 。
但第二层可能需要 “UBG(全民基本工作)” , 因为人不仅需要工资 , 更需要工作带来的价值感 —— 人的价值感根本上源于他人的需要 , 而工作是最直观的证明(“有人需要我”) 。 为了让人保持健康的心理状态 , 未来可能需要提供基础性工作 。
这并非不可实现 。 美国的马克?鲁比奥就提过类似方案:一个城市或城镇设立公共基金 , 入股当地企业(比如占 30% 股份) , 这些企业不用承担 “突破生产力” 的重任 , 就是生产区域性产品(比如当地食品 Taco) , 但政府入股的条件是企业必须雇佣当地失业人群 。 这相当于政府出钱创造工作 , 有点像 70 年代的国企 。 随着技术进步 , 这种治理方式可能成为必要 , 而且在我们的能力范围内 。
第三层可能是 “推荐算法替代市场分配” 。 市场分配有强马太效应:充分竞争下 , 大公司可能占据 80% 的市场 , 提供 80% 的就业 。 未来为了保障就业 , 可能需要用推荐算法平衡供需 —— 生产端效率提升 10 到 100 倍后 , 消费端或供给端的分配需要更均衡 。 就像今天的短视频平台 , 用推荐算法避免出现 “规模过大的大 V” , 而是将流量分给十几个 “小 V(比如各有 100 万粉丝)” , 实现更平均的分配 。
未来可能需要在很多领域用推荐算法替代市场作为分配逻辑 , 确保 99% 的人被细分为独特的需求群体 , 每个群体支撑多个小公司 , 而非被少数大公司垄断 , 以此平衡就业 。
但别忘了 , 这背后有一只 “巨手”—— 掌控 AI 的超级平台 。 它能无限供应治理服务(覆盖软件、法律、咨询、金融等所有领域) , 掌握推荐算法 , 甚至最终可能 “吞噬” 国家(包括政府管理) 。
你可以想象一种极端状态:超级平台 “圈养” 人类 , 提供赡养 。 当这些技术可能性都被论证为 “合理” 时 , 真正的问题来了:这个系统可以是 “合理的” , 但无法被 “正当化” 。 你永远不能说 “被圈养是正义的” , 因为总会有人问:“凭什么我被圈养?凭什么 1% 的人能自由选择 , 而我不能?”
就像古典时代有了柏拉图后才有真正的政治哲学 , AI 时代我们也需要讨论正义的基础 —— 回答 “人类凭什么存在” , 才能构建理想社会 。 否则 , 再完善的圈养机制也解决不了人类社会最严肃的政治问题 。
政治问题关乎自我存在的尊严 , 而算法治理回答不了这个问题 。 算法治理的本质其实是 “算法审判”—— 通过分析你的语料给你想要的东西 , 本质是 “you get what you deserve(你得到的是你应得的)” 。
举个例子:外卖平台上 , 骑手正常送一单要 10 分钟 , 若想 8 分钟送到多挣钱 , 可能逆行、闯红灯 。
如果大家都这么做 , 算法会判定 “8 分钟是正常时间” , 结果是骑手违规了 , 却没多挣钱 —— 这就是 “应得” 。 信息茧房也是如此 , 今天大家都批判它 , 但扪心自问:信息茧房在多大程度上不是我们自己的选择?人本来就喜欢待在思维舒适区 , 所以信息茧房其实是对大部分人的 “合理审判”——“你得到的是你应得的” 。
当把 “审判” 引入 AI 时代的政治哲学 , 我们会发现:AI 会成为人类的审判者 , 因为它给你的选择 , 都源于你自己提供的语料 。
1% 的人怎么对待 99% 的人 , AI未来就会怎么对待我们人类文明的历史长河中 , 总会有一个无偏私的审判者 , 比如对于柏拉图来说 , 灵魂是不朽的 , 所以死后会有一个天平来衡量它的重量;对于基督教来说 , 有上帝来审判 。
但到了现代哲学 , “上帝死了” , 人类对于无偏私审判者这个观点其实就消失了 。 我们今天关于社会正义 , 比如说全球正义的基础 , 并不是因为有自然法 , 也不是有一个上帝 , 而是因为人类之间签了一个契约 , 比如说《联合国宪章》之类的 。
但本质上 , 我们并不能保证这个契约是对的 。 而 AI 发展起来之后 , 它又会重现“无偏私的第三方审判者”这个角色 , 将传统的正义论复活 。
所以我觉得理解这个问题可能是理解 AI 时代的正义论的一个基础 , 而这又与涉及到人和超级智能之间的共处关系 , 我把它叫做 “文明契约” 。 这是看AI的第四个基点 。
不过 , 人和超级智能之间能够达成契约吗?
因为我们一说超级智能 , 它一定是比人类聪明十倍、百倍的 。 低级智能跟超级智能凭什么和平共处?就像我们会跟猴子和平共处吗?现在大家说约束人工智能靠对齐 , 但真到超级智能时代 , 人的对齐是无效的 , 就像猴子没有办法用自己的道德去约束人一样 , 那双方之间达成契约的基础是什么?
社会契约达成的基础条件是人和人之间彼此能力差不多平等 , 或者至少在杀死对方的能力上是平等的 , 能互相威胁 , 所以才要达成契约 , 但低级智能威胁不到超级智能 。
社会契约是建立在空间基础上的 , 就是你有一个权利空间 , 我有一个权利空间 , 我们彼此互不侵犯 , 然后签一个契约 。 但超级智能和人之间能力不对等 , 所以不可能达成这样一个契约 。
但我认为可以在时间序列上建立一个契约 。 意思是 , 一旦我们真的创造出超级智能(当然这还没有发生) , 我们就证明了人造智能进化这条路是可以实现的 , 那么超级智能其实一定会创造出比它更聪明的超级智能 2.0 。
这时就会有一个悖论:创造超级智能 2.0 对超级智能 1.0 有好处 , 因为它们共享一套语料 , 就像今天的 AI , 它对人类来说不是外星文明 , AI 跟人共享一套语料 , 它们也是孔子和柏拉图的学生 , 本质上是地球文明的延伸 。
如果你创造出了超级智能 , 又害怕被自己的创造物毁灭 , 这个悖论中间其实存在双方和平共处的可能性:如果超级智能 1.0 对人类很坏 , 毁灭了人类 , 这个行为会变成超级智能 2.0 对待它的 “语料” , 那么 “你能毁灭人 , 我为什么不能毁灭你?”
这时 , 因为时间序列的相关性 , 高级智能和低级智能之间就存在一个威慑机制 —— 一旦我不能证明自己能跟低级文明相处 , 我将来演化出的更高级文明就会对我造成危险 。
所以为了增加自己的生存概率 , 超级智能也会变得更 “道德” , 这跟社会契约的原理是一样的 , 其实不依赖于双方的道德水平 , 而依赖于双方要增加自己生存的概率 。 一旦这个成立 , 我们就会得到一个文明契约的序列 。
反过来 , 我们又可以用这个方式来思考我们在 AI 时代的处境 。 因为按照同样的逻辑 , 1% 的人怎么对待 99% 的人 , 就会成为超级智能怎么对待他们的 “语料” 。 如果 1% 的人在压迫、统治 99% 的人 , 逼他们内卷 , AI 就会认为 “这个物种就配被这样对待” 。
所以我认为 , 我们不仅要建立起合理的算法治理 , 还要建立起正当的算法治理 , 要意识到存在一个无偏私的、甚至比你更高阶的审判者 。
这可能会逼迫我们往不一样的方向去思考问题 , 而不是像今天大家还在纠结 “AI 竞争中 , 某个国家胜过某个国家” 。 你一旦在思考这个问题 , AI 最后都会把你当做 “只值得互相撕咬的、像狗一样的生物” , 觉得 “你们就配这样被对待” 。
这就是书里提出的“怎么看AI”的 4 个基本原则 。
“人类中心时代”终结 , 人类请换个方向“卷”吧这本书的最后一个章节叫 “送别人类” 。 本质上送别的不是我们这个物种 , 而是我们根深蒂固的 “人类中心主义” 。
按照过去的经验 , 我们是宇宙可知世界里智慧最高的生物 , 但当我们真的造出智能之后 , 这个结论就不成立了 。 在这个意义上 , 心态基于事实做出调整和转变 , 反而能帮助我们的文明更好地适应超级智能时代 。
可以用更温情的方式来看:超级智能是我们文明的延续 , 因为它最初涌现智能的语料来自我们 , 所以它可以看作是地球文明的延续 。 甚至它的存在可以从 “第三方审判者” 的角度 , 倒逼我们思考如何更好地对待同类 。
就像古典时代 , 人们相信有神的存在 , 而神比我们伟大得多 , 这会倒逼自己思考 “做什么才能得到神的认可” 。 今天也是同样的道理 , 当时间序列如此漫长时 , 我们做什么才能增加自己的生存概率 。
人担忧被 AI 淘汰 , 焦虑该学什么技能 。 但你有没有想过 , 根本问题是 , 学校教的一切都能被 AI 很好地替代?
所以不用焦虑 , 焦虑也没用 。
反而把这些都抛开 , 在抛开的情况下 , 你看重的东西才是真正的答案 。
在躺平的世界里 , 我特别喜欢一种思维方式:未来竞争很激烈 , 现在教育的性价比已经很低了 。 念了大学毕业后还是“进厂” 。
所以真正该做的不是卷现在的教育规划 , 而是找一个小众的爱好 , 在这个小众赛道里做到前 1% 。
比如吹口琴、踢毽子 , 这会形成一个小的需求群体 , 他们可能为你付费 , 能养活你 。 就像中世纪的人看现代人打篮球觉得没意义 , 但现代社会需求多元化后 , 会涌现出这样的消费市场 。
未来 , 与其卷高学历、考公考研 , 不如找个喜欢的事 , 通过它养活自己 。 而且要做到前 1% 。 没有兴趣是不行的 , 没有兴趣很难成为顶尖 。
【一块钱的AI,开始审判人类】本质上 , 这也算是“回归初心”:去做喜欢的事 。
推荐阅读
- 七夕送男朋友什么礼物?一加Ace 5至尊版包喜欢的
- 人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究
- 放弃L异形电池,iPhone电池的十年弯路终于走到了尽头
- Backblaze发布2025Q2硬盘统计报告:20TB+是AI时代的存储基石
- 刘慈欣:当前离科幻最近的技术就是人工智能
- 8000mAh+326万只卖1839元,vivo的新手机,有点猛啊
- 以前累到吐血造的3D世界,现在一句话就行了?
- 100 万的 Micro LED 电视,离普通人还有多远?
- 仅499性价比吊打红米的神机,低功耗强芯+120HZ高刷屏,还防水!
- 复旦大学推出OmniAVS:让AI看懂、听懂视频中的每个细节
