gpt-5.4 mini和gpt-5.4 nano

OpenAI把两款新的小模型给我们送过来了,它们是GPT-5.4 mini和GPT-5.4 nano,价钱便宜、速度快。在OpenAI这次发布的消息里,这两个模型主要是为了给大家在低成本、低延迟的情况下也能用上旗舰模型的性能。就是为了让AI技术能在更多领域发挥作用。GPT-5.4 mini这款小模型特别厉害,它在编程、推理、多模态理解还有工具调用这些方面都比之前的那个GPT-5 mini要好很多。根据官方给的数据看,它运行起来快了不止两倍,在SWE-BenchPro这类测试里,表现跟那个大得多的GPT-5.4已经差不多了。而GPT-5.4 nano主要就是为了成本低和响应快设计的,就是通过API给开发者用的,适合做些数据分类、提取还有简单的编程任务。这次推出这两个新模型,就是为了填补之前因为大模型延迟太高,不好实时交互的空白。现在大家需要更高效的解决方案了。你在OpenAI的API、Codex平台还有ChatGPT这三个地方都能用上GPT-5.4 mini。API的价格是输入每百万个token 0.75美元,输出每百万个token 4.50美元,支持文字和图片输入还有调用工具的功能,最大能处理40万个token的上下文。对于开发者来说,这个选择特别有吸引力。在Codex平台上用它的费用只是旗舰版的三分之一。开发者处理简单任务的成本一下子就降下来了。这个平台还能让你把活儿派给用GPT-5.4 mini跑的子智能体去做那些不太需要高算力的活儿。 虽然说在视觉任务上它可能稍微比那个老的nano差一点,但是在编程和工具调用这些事儿上还是提升不少的。OpenAI说了,nano主要就是追求便宜和快,不是说要全面做得最好。大家挑的时候得看具体干嘛用才行。 还有就是这俩新模型在那种多层的系统里很重要。比如它们自己的Codex编程助手就用了这俩模型配合干活:用大的那个负责总体规划和协调;用小的那个专门处理下面更细的活儿。这样搭配起来能让开发者把不同模型的优势都用上,在大家都很忙的时候达到最好的效果平衡。 总之这次新出的这两款小玩意让开发者有了更多灵活的选择。以后大家肯定都会想办法在不降低整体智能的情况下把推理成本降下来。 看看科技以后的发展吧!