最近,OpenAI推出了GPT-5.4 mini和GPT-5.4 nano,把性能推向了一个新高度。它们主要是针对需要快速响应和低延迟的任务而设计的。以前,这些场景里往往需要大型模型,但这次OpenAI给大家带来了惊喜。这些小型模型不但速度快,还能保证任务的准确性,用户们对此表示非常满意。这次发布的两款模型把响应速度提升了不少,大大优化了高频工作负载。特别是在代码编写、逻辑推理和多模态理解方面,它们给人留下了深刻的印象。而且这两款模型不仅继承了GPT-5.4的优势,还给系统截图解析和实时图像推理等需要快速响应的任务提供了巨大支持。这一消息让很多IT从业者兴奋不已。IT之家给我们带来了最新消息,3月17日,OpenAI正式宣布推出这两款产品。它们能把代码编辑、库导航和前端生成这些任务处理得非常高效。这次推出的GPT-5.4 mini运行速度比原来的GPT-5 mini提升了2倍以上,这是一个重大突破。同时,它在SWE-Bench Pro和OSWorld-Verified等基准测试中表现出色,成绩已经逼近体积更大的GPT-5.4模型。此外,GPT-5.4 nano是目前体积最小、价格最亲民的版本,它专门针对那些把速度和成本作为主要考量因素的任务设计。开发者可以将它广泛应用于文本分类、数据提取、内容排序以及简单辅助任务的代码子代理中。这些新功能让人眼前一亮。值得一提的是这两款产品已经开放使用了,其中GPT-5.4 mini全面接入了API、Codex及ChatGPT。API版本支持400k上下文窗口,输入与输出成本分别为每百万Token 0.75美元和4.50美元。Codex中调用仅消耗GPT-5.4额度的30%,而ChatGPT的Free和Go用户可以通过“思考”功能体验。相比之下,目前仅有通过API提供的GPT-5.4 nano性能出色,其输入与输出成本极低,分别为每百万Token 0.20美元和1.25美元。此次发布的这些信息对于广大开发者来说是个好消息。如果你是一个热衷于AI技术的IT从业者或者开发者,千万不要错过这次机会。赶紧去体验一下吧!