您的位置:首页资讯编程开发 → 微软14B参数模型挑战671B巨型AI 智能体强化学习重新定义数学推理

微软14B参数模型挑战671B巨型AI 智能体强化学习重新定义数学推理

时间:2025/9/9 9:27:36来源:www.a300.cn作者:教学助手我要评论(0)

微软研究院开源的rStar2-Agent模型在AI数学推理领域引发关注,这款140亿参数的模型通过创新的智能体强化学习技术,在多项数学基准测试中超越了参数量达6710亿的DeepSeek-R1模型。

rStar2-Agent的核心创新在于摒弃了传统的思维链方法,转而采用智能体交互机制。该模型能够自主规划推理过程,调用Python代码执行工具进行验证,并根据反馈调整推理步骤,避免了传统CoT方法中常见的错误累积问题。

在权威的美国数学邀请赛基准测试中,rStar2-Agent表现突出。在AIME24数据集上,其pass@1准确率达到80.6%,超越DeepSeek-R1的79.8%、o3-mini的79.6%和Claude Opus4.0的77.0%。在AIME25测试中准确率为69.8%,HMMT25测试中达到52.7%。

值得注意的是,rStar2-Agent的响应长度显著更短。在AIME24测试中平均约9340个token,AIME25约10943个token,仅为DeepSeek-R1的一半左右,展现出更高的推理效率。

训练效率方面,该模型仅需一周时间完成510个强化学习步骤,使用64块MI300X GPU即可训练完成。其强化学习基础设施支持每步高达4.5万个并发工具调用,平均延迟仅0.3秒。

模型引入了GRPO-RoC算法来处理代码执行中的环境噪声问题,通过"正确时重采样"策略保留高质量推理轨迹,提高训练效果。

在泛化能力方面,rStar2-Agent在GPQA-Diamond科学推理基准上优于DeepSeek-V3,在BFCL v3工具使用任务和IFEval、Arena-Hard等通用测试中也表现良好,显示出智能体强化学习对通用能力的积极影响。

微软已将rStar2-Agent的代码和训练方法开源,基于VERL框架实现多阶段强化学习训练。这一突破表明,通过智能的训练策略,小型模型可以在特定任务上匹敌大型模型的表现,为资源有限的研究者和开发者提供了新的可能性。

这一成果挑战了"参数越多性能越好"的传统观念,证明了训练方法和架构创新在AI发展中的重要作用。对于AI行业而言,这可能预示着未来发展将更注重效率和专用性,而非单纯追求模型规模。


相关视频

    没有数据

相关阅读 微软正式发布 GPT-realtime 模型,主打更逼真语音与多模态输入​微软Copilot Appearance即将面向更广泛用户推广DeepL 推出企业级 AI 智能体,挑战 OpenAI 与微软全球首发2亿新主摄!vivo X300影像参数出炉小米服务发布公告 召回总计146891台充电宝超14万台!小米宣布主动召回PB2030MI型号部分充电宝:全额退款、先后打通苹果、微软!小米澎湃OS 3互联服务Windows通用版开启内测1499元起!小米发布REDMI Note 15R:骁龙6s Gen3+7000mAh电池

文章评论
发表评论

热门文章 IDC报告:全球清洁机器北京大学数字金融研究亚马逊推出 Lens LiveWordPress重磅推出AI工

最新文章 微软14B参数模型挑战6AI行业转向定制芯片, 全球第一!腾讯混元翻译模型Hunyuan-MT-7B登IDC报告:全球清洁机器人市场增速预估28.2%北京大学数字金融研究中心最新报告:AI训练​微软Copilot Appearance即将面向更广

人气排行 安卓模拟器BlueStacks安装使用教程编程语言排行榜2020年9月 TIOBE编程语言排行eclipse字体大小怎么设置 eclipse字体大小plsql developer怎么连接数据库 plsql deveTomcat9.0安装教程 Tomcat9.0环境变量配置方plsql developer怎么使用 plsql developerVisual Studio 2015环境搭建教程Eclipse优化设置教程 Eclipse优化设置技巧