您好,欢迎进入乐鱼体育电动伸缩门有限公司官网!
乐鱼体育-LEYU乐鱼体育官方网站-LEYU SPORTS

联系我们

邮箱:youweb@admin.com
电话:@HASHKFK
地址:广东省广州市番禺经济开发区 在线咨询

研究人员揭示代码执行器受限于模型能力指明智能体融入符号乐鱼体育- 乐鱼体育官方网站- 世界杯指定平台LEYU SPORTS计算

发布日期:2025-07-05 18:51 浏览次数:

  乐鱼体育,LEYU乐鱼体育官方网站,乐鱼体育靠谱吗,乐鱼体育app,乐鱼体育官网,leyu乐鱼体育,乐鱼体育入口,乐鱼体育官方,乐鱼leyu官网登录APP,乐鱼后台,乐鱼体育网址,乐鱼体育官方网站,乐鱼体育注册

研究人员揭示代码执行器受限于模型能力指明智能体融入符号乐鱼体育- 乐鱼体育官方网站- 世界杯指定体育平台LEYU SPORTS计算

  近日,中国科学技术大学本科校友、美国哈佛大学博士生陈勇超和所在团队以 Qwen-3B/7B/14B 为初始模型, 用多步监督微调(SFT,Supervised Fine-tuning)和群体相对策略优化(GRPO,Group Relative Policy Optimization)让模型在 144 个推理和规划的任务上进行训练。训练过程中模型可以自由多次使用代码执行器来帮助推理,这些任务都有符号计算的成分,但是文字推理和符号计算哪个更合适以及如何相互配合其实需要模型自主学会。

  据介绍,R1-Code-Interpreter 工作是研究团队整个大课题的一部分:把符号计算与基于大模型的推理规划结合起来(Neuro-Symbolic Foundation Models for Reasoning and Planning)。现在的大模型推理规划基本都是直接基于纯神经网络以及文字推理来进行。但是,有很多任务都是需要基于符号来计算优化的,比如要让大模型帮用户规划旅行路线,整个机票、酒店、时间、地点和交通的选择都是在预算、偏好、行程和价格等因素下的优化与规划问题。再比如,机器人中典型的任务与移动规划。前段时间特别火的“9.9 和 9.11 比大小”还有“strawberry 里面有几个 r”等问题,让大模型生成代码来解决这些问题比直接文字推理要简单容易得多。

  在这个工作之前,研究团队在 ICRA 2024 发表的 AutoTAMP[1] 和在 NAACL 2025 发表的 TravelPlanner[2] 利用其预先设计好的框架和算法把大模型与符号计算的工具相结合, 来做机器人和旅行中的规划问题。这样做能带来很好的效果,但是泛化性会有局限性。比如,面临不同任务需求时,所需要的算法以及框架会不一样,这时若为每个场景设计一个框架会显得十分局限。现在大模型之所以这么火,一大原因就是因为它超强的泛化性。所以,研究团队一直思考如何在让大模型能够在符号计算的同时,又不损失大模型的泛化能力。

  2024 年,陈勇超在微软研究院实习的时候,首先想到的就是以代码为载体,来融合各个算法、控制器和规划器。一方面,因为符号计算就是在人为预先设定的规则语言下调用各种算法,比如编程语言、控制器以及规划搜索方法等。另一方面,当前的大模型在经过训练后,天然具备代码编程的能力。所以研究团队认为,如果大模型能够自然高效运用代码执行器,然后在文字推理和符号计算之间灵活调动,那么在处理各种推理规划任务时会非常高效。同时,因为是否调用代码以及选择什么样的算法都是大模型自主完成,所以对泛化性没有损失。

  明确了这个方向之后,研究团队先测试了一下目前 OpenAI 的 Code-Interpreter,借此发现目前 OpenAI 训练的 GPT-4o+代码执行器有很多问题,比如有些任务很明显使用生成代码来解决会更好,但是其实模型仍然会选择自己用文字推理,然后导致出错。研究团队还发现,即使通过调整提示词引导模型生成代码来解决任务,生成的代码也会经常包含无效的代码,未能充分利用符号计算。最新的推理模型 o1、o3 还有 DeepSeek-R1 也被发现存在这些问题。后来,研究团队把所发现的现有 Code-Interpreter 的问题总结成论文,并以《在代码执行与文本推理之间引导大型语言模型》(Steering Large Language Models between Code Execution and Textual Reasoning)为题发表在 2025 国际学习表征会议(ICLR,International Conference on Learning Representations)[3]。

  而为了解决这些不足,研究团队尝试训练模型来提高自如运用代码执行器的能力。其中涉及到两个方向:一是额外训练一个辅助的模型来指导主模型的生成,好处是辅助模型的尺寸和训练难度都要小很多,而且可以通过用最强的主模型来探测现在能达到的最强能力。二是直接微调单个模型来兼顾纯文字推理以及符号计算的能力,这对基础模型的能力要求比较高。研究团队一开始尝试的是第一种方法,训练出来的 CodeSteer[4] 能够让 GPT-4o 在 8B 模型的指导下,充分利用符号计算来解决很多推理规划问题,甚至在很多任务上比 o1 和 DeepSeek-R1 的表现还好。第二种方法就是研究团队在此次 R1-Code-Interpreter 工作中所探究的。

联系方式

全国服务热线

@HASHKFK

手 机:@HASHKFK

地 址:广东省广州市番禺经济开发区

扫一扫,加微信

Copyright © 2002-2024 乐鱼体育电动伸缩门有限公司 版权所有 非商用版本 备案号: