收听播客
话题一:AI急诊室诊断
哈佛在Science上发了一篇论文,研究OpenAI的o1模型在急诊室的诊断能力。76个真实患者,对比两个内科主治医生。o1的诊断准确率是67%,两个医生分别是55%和50%。
最关键的点在于,这个差距在信息最少的分诊阶段最大。o1在患者刚进急诊室、信息最不完整的时候,表现最好。
在制定治疗方案这个环节,o1得分89%,医生用传统搜索工具只有34%。两倍多的差距。
不过也有急诊科医生直接开怼:拿内科医生和AI比,能说明什么?急诊医生的首要目标不是猜病名,是判断患者有没有可能会杀死他的疾病。
研究作者的观点是,未来会出现三方共治的模式:医生、患者、AI系统。不是AI取代谁,而是每个人做自己最擅长的事。
话题二:Agentic Coding是陷阱
Lars Faye写了篇文章——《Agentic Coding is a Trap》。核心观点:现在大家鼓吹的"AI写代码,人类做架构师"的模式,其实是在挖自己的墙角。
一个悖论:Anthropic自己的研究显示,用Claude写代码越频繁,调试能力下降47%。但有效使用Claude需要监督,而监督需要你具备编码能力。AI在削弱你监督它所需的能力。
连Simon Willison这样的资深开发者都发现自己"对应用程序能做什么、怎么工作,没有了清晰的心智模型"。
他的建议:每天用AI帮助生成spec和计划,但implementation还是自己来。不生成超过自己能review的代码量。
话题三:大多数公司没准备好
Daniel Miessler说,最大的问题不是AI不够好,而是公司根本说不清楚自己想要什么。AI对这种公司基本没用。更糟糕的是,AI可能会让情况更糟——现在可以更高效地瞎折腾了。
但那些真正能回答清楚自己问题的公司,AI确实帮到了他们。而且这些公司,往往就是那些本来就运转得不错的公司。
结论:AI企业落地的最大障碍,不是技术,是公司自我认知的能力。
三个话题的关联
医疗AI的问题不是AI不够强,而是医疗系统愿不愿意接受新的工作方式。Agentic Coding的问题不是AI写不了代码,而是开发者还在不在思考。企业的AI困境不是AI不够好,而是企业不知道自己需要什么。
三个问题,指向同一个结论:AI的瓶颈,不在AI本身。
参考来源:
- 哈佛Science研究:OpenAI o1急诊诊断准确率67% vs 医生50-55%
- Lars Faye - "Agentic Coding is a Trap"
- Daniel Miessler - "Most Companies Aren't Anywhere Near Ready for AI"
