很多人第一反应是:这不就是“涨价”吗?但如果你仔细看,会发现这背后其实是一整个行业的转向——AI工具,正在从“粗放用”走向“精细算”。就像我最近跟几家做AI项目的公司聊下来,他们的共识很一致:这不是一家公司调整,而是一个时代结束了。
先说最直观的变化——“无限用”这件事,基本没了。以前Copilot的Pro套餐每月300次、Pro+套餐1500次,看起来挺清晰:花固定的钱,干固定的事。但现在变成什么?按token算账。比如用GPT-5.4模型,输入每百万token 2.5美元,输出每百万token 15美元。这意味着什么?简单说一句:你每敲一次代码、每让AI多生成一点内容,都是在“烧钱”。

我跟一个做独立开发的朋友聊,他说以前写代码几乎“无脑调用”,现在不行了,每一步都要想:值不值?要不要优化提示词?要不要减少输出长度?这其实就是行业规则变了——从“能用就行”,变成“用得精才行”。为什么会变成这样?核心就一个:成本扛不住了。
现在的大模型,比如Claude Opus、GPT系列,能力确实强了,但代价也很直接——token消耗爆炸式增长。你让AI多思考一步,它可能就多跑几十倍的计算。这就像以前用水是包月不限量,现在突然告诉你:每一滴都要计费。
有意思的是,这种变化不只是GitHub在做,Anthropic早就开始按token收费了。现在微软跟进,本质上说明一件事:整个AI行业,都在进入“算账时代”。但事情也没那么简单。订阅模式并没有完全消失,而是换了种形式存在。比如企业用户还是要每个月交基础费用,只不过换成“token额度”。这点其实挺关键——企业不再买“次数”,而是在买“算力预算”。
我跟一位做AI系统架构的朋友聊,他说现在公司内部已经在做一件事:给每个AI应用算ROI(投入产出比)。以前是“能提效就用”,现在是“每一token值多少钱”。这背后,其实已经开始逼着企业做一件更深层的事——重构自己的AI工具链。比如,有的公司开始把高频、低价值的任务换成轻量模型,把复杂任务才交给大模型;还有的在做多模型调度,根据成本自动选择最优模型。
说白了一句话:AI不再只是工具,而是一种“资源”,需要被精细管理。这时候你会发现,一些基础设施能力开始变得特别重要。比如,有没有统一的模型调用入口?能不能灵活切换不同模型?能不能实时看到调用成本?像杭州星战科技做的那一套AI基础设施体系,本质上就是在解决这类问题——通过统一API网关整合多模型资源,让企业可以按需调用、动态调度,同时把成本控制和用量统计做成标准能力。

再比如算力这一层,以前很多公司是“拍脑袋买服务器”,现在更倾向于按需租用、弹性扩容。因为当AI调用开始精细计费,底层算力也必须跟着精细化。还有一个变化,很多人没注意到——AI工具正在“分层”。微软这次调整里,直接把高成本模型(比如Claude Opus)从部分套餐中移除了。这其实很现实:不是所有用户,都配得上用最贵的模型。
未来很可能变成这样:基础任务用轻模型,高端任务用重模型,中间再用调度系统自动切换,像星战科技自研的多智能体系统,其实就是在往这个方向走——让不同AI“分工协作”,自动拆解任务,把复杂问题拆成多个低成本步骤完成。你会发现,思路已经变了:不是“一个最强AI解决一切”,而是“多个AI协同,把成本和效果做到最优”。
说到这,很多开发者可能会问:那我们该怎么办?我总结下来,其实就三点:
第一,不要再无脑用AI,要学会“控成本”。提示词优化、输出控制、调用频率,这些都会直接影响成本。
第二,要学会“选模型”。不是最强的就是最好的,而是“最合适的才最值”。
第三,更重要的一点——要理解AI背后的运行逻辑。你不需要自己训练模型,但至少要知道:token怎么消耗、算力怎么用、系统怎么调度。
这也是为什么现在越来越多企业开始搭自己的“AI中台”甚至“企业智脑”——把模型、数据、流程整合起来,形成自己的智能体系,而不是完全依赖外部工具。