给大家讲个事儿啊,OpenAI又有大动作了。前两天他们放出了两个新模型,一个叫GPT-5.4 mini,另一个是GPT-5.4 nano。这两个家伙虽然个头不大,但性能真的很强。我听说啊,它们在代码助手、看图解析还有实时推理这些对延迟特别敏感的活计上表现特别好,响应速度贼快,能把工具用得溜溜转。以前大家都觉得大模型才是王者,现在看来是搞反了,这两个小个子在高频任务上反而更占优势。官方的意思就是想让产品体验再好点,毕竟现在大家都想东西出来得快嘛。 说说那个GPT-5.4 mini吧。它在写代码、逻辑推理、多模态理解这些方面完全碾压了旧版的GPT-5 mini,运行速度更是快了一倍多。我还听说它在SWE-Bench Pro还有OSWorld-Verified这些基准测试里干得不错,跟那个大块头GPT-5.4比起来也就差那么一丢丢。特别是那个低延迟的特性,特别适合那些需要频繁修改代码的工作流。比如说精确编辑代码库导航和生成前端这些活儿,它干得是又快又稳。 再说那个GPT-5.4 nano吧。这是目前市面上体积最小、最省钱的版本了。它是为了把速度和成本放在第一位的用户准备的。开发者可以用它来做文本分类、数据提取,甚至是那种简单的辅助任务。这两款新模型现在都已经开放使用了哦。 GPT-5.4 mini直接对接了API、Codex和ChatGPT。它的API支持400k的上下文窗口,输入和输出的价格分别是每百万Token 0.75美元和4.50美元。在Codex里面用这个模型的话消耗的额度特别少,只有GPT-5.4的30%。至于ChatGPT里的Free和Go用户呢,只要点一下“思考”功能就能体验一下了。 至于那个GPT-5.4 nano现在只开放了API接口。它的输入和输出成本超低的哦,分别是每百万Token 0.20美元和1.25美元。