


智能体开发中,很多开发者会遇到这样的问题:基于 GPT-5.4 构建的智能体推理出色,但串联检索、工具调用等完整工作流后,延迟累积严重,影响使用体验和生产部署。
为此,多模型协同成为优选,让大模型负责全局规划、复杂推理,再搭配轻量化小模型,快速执行海量子任务——既保住推理质量,又能彻底解决延迟痛点。
今日起,GPT-5.4 mini 和 GPT-5.4 nano 正式登陆 Microsoft Foundry(国际版),专为开发者优化,聚焦低延迟、低成本、Agentic 设计,助力智能体高效开发👇

GPT-5.4 mini
生产级工作流的高效推理能手


GPT-5.4 mini 将旗舰模型的核心优势,压缩到更小巧、更高效的架构中,完美适配对响应速度有高要求的开发者工作负载。
相较于上一代 GPT-5 mini ,其编码、推理、多模态理解、工具使用等四大核心能力同步升级。且运行速度提升约 2 倍,延迟大幅降低。

据实测,GPT-5.4 mini 在编程基准 SWE-bench Pro 上得分 54.4%,与 GPT-5.4 的 57.7% 差距仅 3.3 个百分点,在计算机操控基准 OSWorld-Verified 上得分 72.1%,逼近旗舰模型的 75.0%,实力不容小觑。
🎯核心能力亮点
🔹多模态交互:支持提示词与截图、图像结合,轻松构建多模态智能体体验,适配更多可视化场景;
🔹可靠工具调用:在智能体工作流中,能稳定调用各类工具和 API,衔接无卡顿;
🔹全域检索支持:可结合 Web 内容或企业内部文档,在多步任务中精准获取信息,为回答提供扎实依据;
🔹计算机交互闭环:能理解 UI 状态,执行边界清晰的软件操作,实现自动化交互。
🚀优势应用场景
✅开发者副驾与编码助手:适配延迟敏感型编码、代码审查,提供快速反馈;
✅多模态工作流:理解截图、识别 UI 状态,高效处理编码调试中的图像内容;
✅计算机使用子智能体:配合大模型执行边界清晰的软件操作,提升智能体效率。
GPT-5.4 nano
规模化场景的超低延迟自动化神器


追求极致速度与低成本,首选 GPT-5.4 nano ——它是 GPT-5.4 家族中体积最小、速度最快的模型,专为高吞吐、低延迟、低成本API使用设计,聚焦短回合任务,适配轻量级子智能体与规模化自动化场景。
开发者反馈,GPT-5.4 nano 相较上一代速度提升4倍以上,指令跟随能力显著增强,在无需修改提示词的情况下,表现接近更大模型。
🎯核心能力亮点
在更考验模型的“图像编辑”任务中(尤其是多回合编辑):
🔹强指令遵循:在简短清晰交互中,稳定遵循开发者意图,输出可预测;
🔹轻量工具调用:适配轻量智能体与自动化场景,可靠调用工具、API,无冗余;
🔹高效编码支持:优化常见编码任务,快速返回结果,不拖慢节奏;
🔹基础图像理解:支持图像输入,结合文本完成基础识别解析;
🔹低延迟低成本:规模化场景快速响应,单位成本低,性价比高。
🚀优势应用场景
适配简短清晰指令、追求高吞吐低延迟的场景,GPT-5.4 nano 可完美胜任:
✅ 分类与意图识别:高请求量下快速打标、路由;
✅ 抽取与规范化:提取结构化字段、完成标准化输出;
✅ 排序与分诊:优先级判断、延迟预算下选最优动作;
✅ 护栏与策略检查:轻量安全分类、调用大模型前策略判断;
✅ 高吞吐文本处理:批量转换、清洗、去重,兼顾成本与吞吐量;
✅ 边缘侧路由判定:延迟预算下选择最优下游流程。
云馥来助力
选择更合适的模型


🔹Microsoft Foundry(国际版)支持并行部署多个 GPT-5.4 变体,因此团队可以将请求路由到最适合当前任务的模型。可以参考以下方式理解这条产品线的定位:

🔹关于定价,两款模型延续了轻量化模型的高性价比优势:

联系我们,云馥助您低延迟、低成本、高适配,让智能体开发少走弯路,高效落地✨
