AI 公司开始算账,普通用户也要学会算账
我现在越来越觉得,普通用户使用 AI 最便宜的那段时间,可能正在过去。
不是 AI 会突然变得用不起,也不是所有公司都会立刻涨价。最近的变化是,AI 公司开始认真计算每一次调用背后的成本。普通用户也要从默认使用最强模型,变成学会判断什么任务值得用最强模型。
这件事对我的工作流产生了直接的影响。
我现在订阅了 20 美元的 Codex,也订阅了一些国内厂商的 Coding Plan。我的分工很清楚。核心创作、复杂编程、最终要发布、提交或交付的部分,尽量交给最强模型。信息初步处理、固定流程、比较机械的工作,可以交给普通模型或者更便宜的计划。
但即使这样,我还是会遇到 Codex 额度限制。
原因不是我用得太浪费,而是真实工作流没有那么容易切开。一次会话里,可能前半段是在做核心创作,后半段只是检查一下提交目录里的 git 变更。前者值得用最强模型,后者普通模型甚至工具调用就够了。但因为上下文在同一个会话里,用户很难中途把简单任务拆出去。
所以我现在关心的问题,不只是 AI 订阅会不会涨价。更重要的问题是,如果最强模型越来越贵,普通用户要怎么继续高质量地使用 AI。
这不是一个厂商财务问题,而是一个个人工作流问题。因为 AI 已经不是偶尔打开问一句的工具,它开始嵌进写作、编程、资料处理和日常判断里。只要它进入真实产出,成本就会从后台走到前台。
这里说的普通用户,不是企业采购方,而是像我这样把 AI 用进日常创作和编程里的重度个人用户。
20 美元订阅正在失去无限感
过去两年,20 美元左右的 AI 订阅给了很多人一种错觉。只要付了月费,就可以一直用最强能力。
但模型公司看到的不是自助餐。它们看到的是后台账单,是每一次输入、输出、上下文、工具调用、代码执行和失败重试。
OpenAI 的官方文档里,Codex 用量会受到任务大小、复杂度和执行位置影响。小脚本和简单函数消耗不多,大代码库、长任务和需要更多上下文的会话,会消耗明显更多。
Claude 官方文档也说,Claude 和 Claude Code 共享同一套 usage limits。Pro 用户如果经常碰到限制,可以升级 Max,启用 extra usage,或者转向 Claude Console 按量付费。
GitHub Copilot 的变化更直接。GitHub 在 2026 年 4 月宣布调整个人计划,暂停 Pro、Pro Plus 和 Student 的新注册,收紧用量限制,并调整模型可用性。官方解释里提到,agentic workflows 带来了长时间和并行会话,资源消耗远超原本的计划结构。一小部分请求的成本甚至可能超过计划价格。
这说明厂商不是单纯想涨价,而是原来的订阅结构正在被新使用方式击穿。过去用户是和 chatbot 对话。现在用户让 AI 长时间待在项目里,读文件,改代码,跑命令,看报错,再改一轮。
这不是同一种成本。
厂商收紧的不是抽象额度,而是用户在真实工作流里最容易无感消耗的那部分能力。
强模型不是不能用,而是不能随便用
很多人会把这件事理解成,普通人以后只能用二三线模型。我觉得这个判断有点太粗。
更可能发生的是,普通人会开始面对模型分层。
GitHub 的官方模型文档已经把这种分层写得很清楚。不同模型有不同的 premium request multiplier。越复杂、越消耗资源的模型,倍率越高。Claude Opus 4.7 在一个促销期内也有 7.5 倍的 multiplier。
API 价格也能看到类似差异。OpenAI 官方价格页显示,前沿模型和 mini 模型之间有明显价差。以我核验时官方页面显示的价格为例,gpt-5.5 标准短上下文输入是每百万 token 5 美元,输出是 30 美元。gpt-5.4-mini 输入是 0.75 美元,输出是 4.5 美元。
这就是未来普通用户要面对的新现实。不是 AI 不能用了,而是每个任务都开始有账单意味。
问一个概念,整理一段材料,批量改格式,可能不值得用最强模型。写一篇真正要发布的文章,做一次复杂架构判断,修一个有上下文依赖的代码问题,仍然值得用最强模型。
学会算账,不是每天手动算 token,而是知道哪些环节值得交给强模型。
所以这件事不应该被理解成简单的消费降级。更像是 AI 使用从补贴期进入正常价格期。便宜模型会越来越能干,强模型也会继续变强,只是它们不再适合被混在同一个无限套餐里随便使用。
真正麻烦的是工作流还没有电表
我觉得这件事最有意思的地方,不在厂商涨价,而在用户工作流。
如果一个任务天然能拆开,问题并不大。比如先用便宜模型做资料粗筛,再用强模型做判断和改写。先用普通模型提取要点,再用强模型写最终稿。
但真实使用 AI 的时候,很多任务不是这样发生的。你打开 Codex,本来是想写一篇文章。写到一半需要检查某个目录的文件状态。检查完又要改一段结构。然后发现有几条来源需要核验。再回到正文。最后还要整理 git 变更。
在这个过程中,有些环节需要强模型。有些环节完全不需要。但因为它们在同一个上下文里,用户很难手动切换。切出去会损失上下文,重新解释任务又会浪费时间。于是简单动作也跟着消耗强模型额度。
这可能是下一阶段 AI 工具很重要的产品需求。
下一代好工具,不只是模型强。它还应该知道什么时候不需要强模型。
它应该能把任务自动拆成几层。核心判断交给强模型。固定流程交给便宜模型。文件检查、路径收集、格式整理、git 状态读取,能用工具就用工具。
换句话说,未来的 AI 工具需要一个成本路由层。
普通人应该怎么适应
我现在倾向于把 AI 使用分成三层。
第一层是低风险处理。资料初筛、格式整理、简单摘要、批量改写、提取表格、搜索线索、检查文件路径。这些任务不需要最强模型。
第二层是主力生产。写草稿、改代码、做常规分析、根据已有信息整理方案。这一层需要稳定、上下文能力强、性价比好的模型。它不一定是最强模型,但要足够可靠。
第三层是关键判断。确定文章角度,判断一个产品方向,处理复杂工程问题,做架构取舍,检查一篇重要稿件的逻辑漏洞。这一层值得用最强模型。
真正的能力不是永远用最贵的模型,而是知道什么时候该花这笔钱。
内容创作尤其如此。资料搜集和初步整理不一定要强模型。但判断这条内容值不值得写,怎么避开陈词滥调,哪个角度最接近自己的经验,哪些证据不能乱用,这些地方最好还是用强模型。
编程也是一样。列目录、看 git diff、跑测试、改格式,不值得一直烧最强模型。但理解项目结构、定位复杂 bug、做方案取舍、避免引入隐藏风险,仍然值得。
所以普通用户以后不是少用 AI,而是要把 AI 用得更分层。
用户不应该成为会计
问题在于,普通用户不应该每天手动做这么多判断。
如果每次使用 AI 都要想,这一步用 Opus 还是 Sonnet,用 GPT 旗舰还是 mini,用订阅还是 API,用国内计划还是 Codex,那工具就把成本管理的负担甩给了用户。
更好的方向应该是,用户只表达目标,系统负责拆任务。它知道哪些步骤需要强模型,哪些步骤可以降级,什么时候要保留上下文,什么时候可以新开便宜会话,哪些动作应该直接调用工具。
单纯模型强,只能解决一部分问题。会不会帮用户管好成本,会不会把任务切到合适颗粒度,会不会在不损失质量的情况下减少昂贵调用,可能会变得越来越重要。
所以我不太担心普通用户会被迫退回到很差的模型。
我更担心的是,很多工具还没有把这件事处理好。
对于大多数人,理想状态应该是工具自动完成模型分层和成本路由。用户不需要理解每个模型的价格、倍率和适用边界,只需要知道结果是不是可靠。
但对重度使用 AI 的人,尤其是把 AI 用在编程、内容创作和自动化工作流里的人,主动理解不同模型的特点仍然有价值。哪些任务值得烧强模型,哪些任务可以交给普通模型,哪些任务干脆交给工具层,这些选择会影响成本,也会影响产出质量。
AI 公司开始算账之后,普通用户不应该被迫成为会计。更好的未来,是工具在后台把账算好,而重度用户可以在自己的工作流里保留一点主动权。
