Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生

Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生

文章图片

Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生

文章图片

Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生

文章图片

Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生

2016年 , Hinton曾建议停止培训放射科医生 , 因为他们在未来五年中很可能被AI取代 。 如今已快九年 , 美国放射科医生不仅没有被AI取代 , 而且还以52万美元的平均年薪成为全美第二高薪的医疗专业 , 岗位数量也创下历史新高 。
「我们现在就应该停止培训放射科医生了——再过五年 , 深度学习的表现就会比他们更强 。 」
2016年 , 在多伦多大学一场关于机器学习的会议上 , 「AI之父」Geoffrey Hinton如此预言道 。
随后 , Frank Chen在X平台上转述了这一观点 。
Hinton第一任妻子Rosalind在1994年因患卵巢癌去世 , 这促使他长期关注「AI+医疗」(尤其是癌症早筛与医学影像)领域 。
然而九年即将过去 , Hinton预言不仅未能成真 , 现实甚至朝着相反的方向发展:
2025年 , 美国放射科医生的数量再创新高 , 同时平均年薪较2015年增长48% , 成为全美第二高薪的医疗专业 。
特斯拉前AI部门总监、OpenAI创始团队成员Andrej Karpathy在X平台上转发一篇「AI不会取代放射科医生」的博文 , 指出Hinton预言落空的原因 。
Hacker News中有一篇「对人类放射科医生的需求达到历史新高」热帖 , 一名放射科医生在下面留言:
AI在读取诊断图像上可能比放射科医生做得更好 , 但它并不会因此取代放射科医生 。

AI为什么替代不了放射科医生?理论上 , 放射学应当是最容易被AI替代的职业之一 。
因为它拥有数字化图像、明确的评估标准和可重复的任务 。
这也是Hinton在2016年提出「应停止培养放射科医生」这一观点的重要背景 。
也是在2016年以后 , 美国的AI医疗器械迎来了快速发展 。
比如 , 2017年发布的CheXNet , 仅需一块普通消费级GPU即可运行 , 可在一秒内完成对新影像的分类 。
【Hinton预言错了,年薪狂飙52万美元,AI没有「干掉」放射科医生】还有模型可以在多种影像中检测出上百种疾病 , 并在基准测试中展现出比人类更高的速度和准确率 。
少数模型 , 甚至已获准在无人医生审阅图像的情况下独立工作 。
放射科占据了FDA每年核准的AI医疗器械数量的绝大多数
从上图可以看出 , 在1995年—2015年这二十年间 , 几乎没有AI医疗器械获批 。
2016年后增长明显加速 。 2024年 , 所有获批的AI医疗器械中 , 有78%属于放射科 。
即便如此 , 放射科就业并未遭受到AI的强烈冲击 , 正好相反:
2025年美国放射学诊断住院医师项目提供了创纪录的1208个名额 , 较2024年增长4% 。
放射科医生以平均年薪52万美元成为全国第二高薪的医疗专业 , 比2015年增长了48% 。
每年几乎所有放射科住院医师名额都能被申请者填满
从上图可以看出 , 从2013年—2025年的大多数年份里 , 未填补名额只占很小一条粉色带 , 说明放射科岗位几乎年年被填满 。
背后原因主要有三个:
实际场景性能下降:模型在医院的真实环境中 , 很难复现在标准测试中的成绩 。 一旦脱离测试环境 , 性能往往急剧下降 。
法律阻力:监管机构和医疗保险公司普遍不愿批准或支付完全自主运行的放射学AI 。
作用有限:即使模型的诊断正确 , 但这只覆盖了放射科医生工作的很小一部分 。 还有大量的工作如与患者或同事交流、监督扫描过程、教学培训等无法覆盖 。

AI只覆盖了放射科临床的冰山一角大多数模型只能识别一个发现 , 且仅限于一种影像类型 。
比如一个模型可能用于查看胸部CT , 或被用于评估冠状动脉钙化评分 。
这意味着每个问题都需要一个单独模型 。 医生一天的日常工作 , 也可能需要在几十个模型之间切换 。
而且这些模型 , 往往来自不同厂商 , 彼此之间是相互独立的 。
结果往往仍停留在逐点回答 , 难以形成对影像的整体性解读 。
不仅如此 , 在目前FDA已批准数百种影像AI中 , 加在一起所覆盖的临床任务仍只是冰山一角 。
它们大多集中在中风、乳腺癌和肺癌等少数几个场景上 , 其它专科如血管、头颈、脊柱和甲状腺影像则严重缺乏模型 。
这主要仍是受制于数据问题 。
许多AI在训练时使用的是极其有限的数据源 , 这导致它们在训练医院以外的场景使用时常常「水土不服」 。
在这些场景中它们表现下滑幅度甚至可高达20个百分点 。
此外 , 目前的放射学AI模型更适用于简单的病例 , 在面对真实世界中复杂、模糊的病例就显得十分吃力 。
一位放射科医生曾表示:他们用的模型会把图像中出现的手术钉误判为出血 , 仅仅是因为金属的亮线被误认为是异常影像 。
此类情况往往需要医生结合患者背景与临床信息作出综合判断 。
此外 , 训练数据集中往往缺乏儿童、女性和少数族裔的病例 , 使得模型在这些群体中的表现更差 。

两大挑战 监管门槛与保险限制现实中 , 监管门槛和保险限制仍是两大障碍 。
FDA将影像AI分为「辅助」和「自主」两种类别:辅助类必须由医生签字确认 , 而自主类则无需医生介入 。
自主类AI对模型能力的要求极高:它们必须能够证明当图像模糊、扫描设备异常 , 或任务超出模型能力时 , 自己可以自动拒绝判断 。
因为一旦人类退出流程 , 一个模型bug在没人监督的情况下可能连续误诊成千上万患者 。
即便是目前最强的视觉神经网络 , 在低对比度、角度不规整或伪影干扰严重时仍容易出错 。
以IDx-DR为例 , 它是少数获得批准的自主模型之一 , 但也对它的使用做出了严格限制 , 比如:
只可用于成人患者;
要求高质量图像、无糖尿病视网膜病变史;
一旦图像模糊或瞳孔过小 , 就要立即中止判断并转诊医生 。
这些限制让模型的市场推广进度远远落后于技术进展 。
此外 , 保险限制也是一个重要制约因素 。
即使是监管获批 , 保险公司也并不愿为AI误诊买单 , 因此多数合同条款都明确注明只对持证医生签署报告提供赔偿 。
Berkley甚至在政策中直接写明「完全排除 AI 风险」 。
这意味着 , 美国医院想要全面采用AI独立诊断 , 必须证明其降本增效的结果足以抵消制度风险 。
2024年调查显示 , 仅48%的放射科医生实际在工作中使用AI;2025年调查显示 , 只有19%的医院在试点AI项目时取得「明显成功」 。

「杰文斯悖论」 AI越强 , 医生越忙即使AI能做到完全独立阅片 , 但这并不会解放放射科医生 , 反而可能会让他们更忙 。
经济学上有一个「杰文斯悖论」:效率提升后 , 使用量反而上升 。 即当任务变得更快、更便宜时 , 人们就会更多使用它 。
比如当全身CT技术更快、更便宜时 , 关于扫描的需求也随之激增 。 同样 , 更强的AI , 也将带来更多的扫描 。
放射科医生的工作远不止「看片子」
在对加拿大温哥华几家医院的一项小样本研究中 , 统计了放射科医生在工作日的时间分配比例:
医生仅用36%的时间处理影像本身 , 更多时间用于监督检查过程、与临床医生和患者沟通、教学以及调整扫描方案 。
这意味着 , 即使AI在影像解读上更高效 , 反而也可能为放射科医生带来更多工作 , 比如监督AI工作 , 或者将更多精力投入到影像解读之外的工作 。
这也解释了为什么AI并没有令放射科医生失业 , 反而他们的人数和收入都在持续上涨 。
现实中 , 仅靠更强的模型 , 无法完全覆盖现实医疗场景的需求以及社会监管要求 , 这使得AI在医疗行业的普及中 , 更多依赖「人机协同」模式 , 而非简单地替代人类 。
好处是 , 放射科医生暂时不用太担心失业了 。
但坏处是 , 他们可能要更忙了——
AI越强 , 医生越忙 。
参考资料:
https://www.worksinprogress.news/p/why-ai-isnt-replacing-radiologists
本文来自微信公众号“新智元” , 作者:新智元 , 36氪经授权发布 。

    推荐阅读