微软发布 Phi-4-Reasoning-Vision-15B 开源模型,能自主决定何时思考的小型多模态 AI - 果核剥壳

3 月 5 日消息,据微软官方开发者社区博客今日消息,微软发布了一款 Phi-4-Reasoning-Vision-15B 模型,这是一款视觉推理模型。

它结合了高分辨率视觉感知与选择性、任务感知的推理,使其成为 Phi-4 系列中首个同时实现“看得清楚”和“想得深入”的小语言模型(SLM)。

微软发布 Phi-4-Reasoning-Vision-15B 开源模型,能自主决定何时思考的小型多模态 AI

传统的视觉模型仅执行被动的感知 —— 识别图像中“有什么”。Phi-4-Reasoning-Vision-15B 更进一步,执行结构化、多步骤的推理:理解图像中的视觉结构,将其与文本上下文连接,并得出可操作的结论。这使开发者能够构建从图表分析到 GUI 自动化的智能应用。

该模型最关键的设计特征是其混合推理行为。它可以根据提示在“推理模式”和“非推理模式”之间切换:

当需要深度推理时(例如数学问题、逻辑分析)→ 启用多步推理链

当快速感知足够时(例如,OCR、元素定位)→ 直接输出以降低延迟

该模型最重要的应用领域之一,就是搭配计算机智能体使用。模型接收一个屏幕截图和自然语言指令后,可输出目标 UI 元素的标准化边界框坐标,其他智能体模型可以执行点击、滚动和其他交互。

以下是 Phi-4-Reasoning-Vision-15B 与其他模型在关键任务上的性能对比:

微软发布 Phi-4-Reasoning-Vision-15B 开源模型,能自主决定何时思考的小型多模态 AI

▲ 非推理模式

微软发布 Phi-4-Reasoning-Vision-15B 开源模型,能自主决定何时思考的小型多模态 AI

▲ 推理模式

如果您喜欢本站,点击这儿不花一分钱捐赠本站

这些信息可能会帮助到你: 下载帮助 | 报毒说明 | 进站必看

修改版本安卓软件,加群提示为修改者自留,非本站信息,注意鉴别

(0)
上一篇 6小时前
下一篇 6小时前

相关推荐

发表回复

评论问题之前,点击我,能帮你解决大部分问题

您的电子邮箱地址不会被公开。 必填项已用*标注