这两天,OpenAI 发布了两款更“小、更快、更省”的新模型:GPT‑5.4 mini 和 GPT‑5.4 nano。它们把不少 GPT‑5.4 的能力压缩到更低延迟、更低成本的形态里,面向的不是“炫技”,而是更接近日常产品的高频场景:写代码、调用工具、看图理解界面、做一堆自动化小任务。

一句话理解:大模型的趋势不再只看“更大”,而是看“单位时间/单位成本能做成多少事”。

这次发布说清楚了 4 个要点

  • mini:更像“主力机”。官方描述它在编码、推理、图像理解和工具调用上全面提升,并且在他们的延迟估算里,运行速度超过上一代 mini 的 2 倍。
  • nano:更像“批量工人”。更便宜、延迟更低,适合分类、信息抽取、排序、以及给“大模型”打配合的简单子任务(例如在后台跑一堆小检查)。
  • 工具调用变成核心能力。模型不只是“会答题”,而是要可靠地调用函数/工具、读文件、看截图完成步骤式任务。官方给出的评测里,mini/nano 在多项工具相关指标上明显高于旧版 mini/nano。
  • 长上下文与多模态继续下沉。GPT‑5.4 mini 支持文本+图片输入,并提供 400k 上下文窗口;这意味着“把一大堆材料丢进去做总结/对比/归纳”更可行,也更适合做产品化。

为什么这很重要?

很多人对 AI 的期待已经从“能不能做”变成“能不能稳定、便宜、及时地做”。当模型更快、更便宜,产品经理和开发者就能把它塞进更多实时交互里:比如 IDE 里边写边改、客服对话里即时查资料、运营同学批量生成标题并自动校对、甚至让 AI 直接“看着屏幕操作”。这些体验,往往是延迟决定成败——慢一秒,用户就不等了。

谁最适合关注?

  • 想把 AI 真正做成产品的人:mini/nano 这种“性能/延迟/成本”更均衡的模型,往往更贴近上线需求。
  • 经常写代码、做自动化的人:更快的迭代速度,意味着试错成本更低,效率会更明显。
  • 做内容/运营但不想被成本卡住的人:把“重复、规则明确”的环节交给更便宜的小模型,能让预算更可控。

如果你也在考虑把 AI 接到自己的工作流里,一个很实用的思路是:用更强的模型做“规划与把关”,用 mini/nano 做“分工执行”,把系统拆成多个小步骤并行跑起来,整体体验往往比“一个超大模型全包”更稳。

我会在 wuxing.name 持续更新这些能落地的 AI 趋势与用法;如果你想看我把某个新能力拆成可复用的工作流,欢迎留言点题。


来源:
OpenAI:Introducing GPT‑5.4 mini and nano
Codex 文档:Subagents
Deployment Safety Hub:GPT‑5.4 mini 附录

Categorized in:

个人日志,

Last Update: 19 3 月, 2026

Tagged in: