每日论文 - 2025年10月01日
论文总数: 61
1. The Dragon Hatchling: The Missing Link between the Transformer and
Models of the Brain
作者: Adrian Kosowski, Przemysław Uznański, Jan Chorowski, Zuzanna Stamirowska, Michał Bartoszkiewicz
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-30 | 👍 点赞数: 361
摘要:
论文标题:龙之幼崽:Transformer与脑模型之间的缺失环节
中文摘要:
自约翰·冯·诺依曼和艾伦·图灵以来,计算系统与大脑之间的关系一直是推动理论先驱研究的重要动力。像大脑这样的均匀、无标度的生物网络具有强大的特性,其中包括随时间泛化的能力,而这正是机器学习迈向通用推理模型的主要障碍。
我们提出“龙之幼崽”(BDH),一种基于无标度、受生物启发的局部相互作用神经元粒子网络的新型大语言模型架构。BDH在不牺牲类似Transformer性能的前提下,兼具坚实的理论基础和内在的可解释性。
BDH是一种实用、高效且先进的基于注意力机制的状态空间序列学习架构。除了作为图模型之外,BDH还具备对GPU友好的实现形式。它展现出类似Transformer的缩放规律:在相同训练数据和参数量(从1000万到10亿)条件下,BDH在语言和翻译任务上的表现可与GPT-2相媲美。
BDH可以被表示为一种脑模型。其在推理过程中的工作记忆完全依赖于使用脉冲神经元的赫布学习(Hebbian learning)所驱动的突触可塑性。我们通过实验验证,在处理语言输入时,每当BDH听到或推理某个特定概念,其对应的特定单个突触连接会增强。BDH的神经元交互网络具有高度模块化的图结构,并呈现重尾的度分布特征。该模型在生物学上具有合理性,揭示了人类神经元可能用于实现言语功能的一种潜在机制。
BDH的设计强调可解释性。其激活向量是稀疏且非负的。我们在语言任务中展示了BDH的单语义性(monosemanticity)。更重要的是,BDH架构本身具备对模型状态的可解释性,这种可解释性超越了传统意义上对神经元和模型参数的理解,成为其固有特性。
2. MCPMark: A Benchmark for Stress-Testing Realistic and Comprehensive MCP
Use
作者: Zijian Wu, Xiangyan Liu, Xinyuan Zhang, Lingjun Chen, Fanqing Meng, Lingxiao Du, Yiran Zhao, Fanshi Zhang, Yaoqi Ye, Jiawei Wang, Zirui Wang, Jinjie Ni, Yufan Yang, Arvin Xu, Michael Qizhe Shieh
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-28 | 👍 点赞数: 151
摘 要:
论文标题:MCPMark:一个用于压力测试真实且全面的MCP使用的基准
中文摘要:
MCP 标准化了大语言模型(LLMs)与外部系统交互的方式,为通用智能体的发展奠定了基础。然而,现有的 MCP 基准测试在范围上仍较为局限:它们主要聚焦于读取密集型任务或交互深度有限的任务,未能充分反映现实世界工作流的复杂性和真实性。为弥补这一不足,我们提出了 MCPMark——一个旨在更真实、更全面地评估 MCP 使用情况的基准测试。该基准包含由领域专家与AI代理协作构建的127个高质量任务,每个任务均从精心设计的初始状态开始,并配备程序化脚本以实现自动验证。这些任务要求模型与环境进行更丰富、更多样化的交互,涵盖广泛的创建、读取、更新和删除(CRUD)操作。我们采用一个极简的智能体框架,在工具调用循环中对当前最先进的大语言模型进行了全面评估。实验结果表明,表现最佳的模型 gpt-5-medium 在 pass@1 指标上仅为 52.56%,pass^4 指标为 33.86%;而其他广泛认为性能较强的模型(如 claude-sonnet-4 和 o3)则更低,pass@1 不足 30%,pass^4 不到 15%。平均而言,每个任务中 LLM 需要执行 16.2 轮交互和 17.4 次工具调用,显著超过以往 MCP 基准中的水平,凸显了 MCPMark 的压力测试特性。
3. Vision-Zero: Scalable VLM Self-Improvement via Strategic Gamified
Self-Play
作者: Qinsi Wang, Bo Liu, Tianyi Zhou, Jing Shi, Yueqian Lin, Yiran Chen, Hai Helen Li, Kun Wan, Wentian Zhao
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-29 | 👍 点赞数: 122
摘要:
论文标题:Vision-Zero:通过策略性游戏化自对弈实现可扩展的视觉语言模型自我提升
中文摘要:
尽管强化学习(Reinforcement Learning, RL)能有效增强视觉语言模型(Vision-Language Models, VLMs)的推理能力,但现有方法仍严重依赖于劳动密集型数据集,这些数据集需要大量人工构建与验证,导致训练成本极高,从而限制了VLM在实际中的广泛应用。为应对这一挑战,我们提出了Vision-Zero——一种领域无关的框架,通过从任意图像对生成的竞争性视觉游戏,实现VLM的自我提升。具体而言,Vision-Zero具有三个核心特性:(1)策略性自对弈框架:该框架在类似“谁是卧底”(Who Is the Spy)的游戏中训练VLM,使模型在多个角色间进行策略性推理与行为决策。通过交互式游戏过程,模型能够自主生成训练数据,无需人工标注;(2)基于任意图像的游戏生成:与现有的游戏化训练框架不同,Vision-Zero可从任意图像生成游戏任务,从而提升模型在多样化领域的推理能力,并在不同类型的任务上展现出强大的泛化性能。我们在三类差异显著的图像数据集上验证了该框架的通用性:基于CLEVR的合成场景、图表图像以及真实世界图像;(3)可持续的性能提升:我们提出了一种新的训练算法——迭代式自对弈策略优化(Iterative Self-Play Policy Optimization, Iterative-SPO),该算法交替执行自对弈与具备可验证奖励的强化学习(RLVR),有效缓解了纯自对弈训练中常见的性能瓶颈问题,实现了长期持续的性能增长。尽管完全使用无标签数据,Vision-Zero在推理任务、图表问答以及以视觉为核心的理解任务上均达到了当前最优性能,超越了多种依赖人工标注的方法。模型与代码已公开发布于 https://github.com/wangqinsi1/Vision-Zero。
4. Winning the Pruning Gamble: A Unified Approach to Joint Sample and Token
Pruning for Efficient Supervised Fine-Tuning
作者: Shaobo Wang, Jiaming Wang, Jiajun Zhang, Cong Wang, Yue Min, Zichen Wen, Fei Huang, Huiqiang Jiang, Junyang Lin, Dayiheng Liu, Linfeng Zhang
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-28 | 👍 点赞数: 64
摘要:
论文标题:赢得剪枝的博弈:一种联合样本与令牌剪枝的统一方法,用于高效监督微调
中文摘要:
随着监督微调(Supervised Fine-Tuning, SFT)从轻量级的后训练步骤演变为在计算规模上可与中期训练相媲美的密集阶段,在有限资源预算下提升数据效率已成为对齐大语言模型(LLMs)的关键挑战。现有的数据剪枝方法存在设计碎片化的问题:它们仅孤立地在样本级别或令牌(token)级别进行操作,无法同时优化这两个维度。这种割裂导致了显著的低效性——高价值样本中可能仍包含冗余令牌,而令牌级剪枝则常常会丢弃嵌入在个别样本中的关键指令或纠错信号。为解决这一瓶颈,我们提出了“误差-不确定性”(Error-Uncertainty, EU)平面,这是一种诊断框架,能够联合刻画训练数据在样本和令牌两个层面的异质性效用。基于这一洞察,我们提出了一种名为象限调优(Quadrant-based Tuning, Q-Tuning)的统一框架,可策略性地协同样本剪枝与令牌剪枝。Q-Tuning 采用两阶段策略:首先进行样本级别的分诊筛选,保留富含信息性误解或校准信号的样本;其次实施非对称的令牌剪枝策略,通过上下文感知的评分机制,仅对包含误解的样本中不显著的令牌进行裁剪,同时完整保留所有校准类样本。我们的方法在五个不同类型的基准任务上均达到了新的最先进水平。尤其值得注意的是,在 SmolLM2-1.7B 模型上,Q-Tuning 仅使用原始训练数据的 12.5%,就在平均性能上相较全数据 SFT 基线提升了 +38%。作为首个能持续超越全数据训练效果的动态剪枝方法,Q-Tuning 为资源受限场景下的大模型监督微调提供了一个实用且可扩展的数据高效利用蓝图。
5. More Thought, Less Accuracy? On the Dual Nature of Reasoning in
Vision-Language Models
作者: Xinyu Tian, Shu Zou, Zhaoyuan Yang, Mengqi He, Fabian Waschkowski, Lukas Wesemann, Peter Tu, Jing Zhang
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-30 | 👍 点赞数: 56
摘要:
论文标题:更多思考,更低准确率?论视觉-语言模型中推理的双重性质
中文摘要:
推理能力已成为大型语言模型(Large Language Models, LLMs)的一项关键能力。通过强化学习(Reinforcement Learning, RL),尤其是组相对策略优化(Group Relative Policy Optimization, GRPO),这些模型能够解决数学推理和代码生成等复杂任务。基于这些进展,近期研究尝试将推理能力扩展到视觉-语言模型(Vision-Language Models, VLMs),并在多种视觉任务上取得了令人鼓舞的成果。然而,本研究揭示了多模态推理所具有的双重性质:尽管它显著增强了逻辑推断能力,并有助于提升在复杂问题上的表现,却可能逐渐削弱模型对视觉信息的感知基础,导致其在原本简单的视觉问题上出现识别失败。进一步分析表明,这一现象源于“视觉遗忘”(visual forgetting)——即持续的推理过程使模型越来越忽视视觉输入。为应对这一问题,我们提出了视觉锚定策略优化(Vision-Anchored Policy Optimization, VAPO),一种简单而有效的方法,能够显式引导推理过程朝向基于视觉证据的路径发展。我们训练得到的模型VAPO-Thinker-7B显著增强了模型对视觉信息的依赖,在多个主流基准测试上实现了新的最先进性能。项目主页:https://xytian1008.github.io/VAPO/
6. TruthRL: Incentivizing Truthful LLMs via Reinforcement Learning
作者: Zhepei Wei, Xiao Yang, Kai Sun, Jiaqi Wang, Rulin Shao, Sean Chen, Mohammad Kachuee, Teja Gollapudi, Tony Liao, Nicolas Scheffer, Rakesh Wanga, Anuj Kumar, Yu Meng, Wen-tau Yih, Xin Luna Dong
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-30 | 👍 点赞数: 47
摘要:
论文标题:TruthRL:通过强化学习激励真实可信的大型语言模型
中文摘要:
尽管大型语言模型(LLMs)在事实类问题回答任务中表现出色,但它们仍容易产生幻觉和不真实的回应,尤其是在任务所需信息超出其参数化知识范围时。事实上,真实性不仅仅意味着准确性——模型还必须能够识别不确定性,并在不确定时选择 abstain(拒绝回答),以避免产生幻觉。这对现有方法提出了根本性挑战:以准确性为目标的优化方法往往会加剧幻觉现象,而鼓励拒答的方法又可能过于保守,牺牲了本可正确的回答。这两种极端情况最终都会损害模型的整体真实性。本文提出 TruthRL,一种通用的强化学习(RL)框架,直接优化 LLM 的真实性。具体而言,我们基于 GRPO 实现 TruthRL,并设计了一种简洁而有效的三元奖励机制,用以区分正确回答、幻觉和拒答行为。该框架不仅激励模型通过给出正确答案来减少幻觉,更允许其在不确定时主动拒答,从而提升整体真实性。在四个知识密集型基准上的大量实验表明,与标准的强化学习方法相比,TruthRL 将幻觉率显著降低了 28.9%,真实性提升了 21.1%,且在不同主干模型(如 Qwen、Llama)以及检索与非检索设置下均保持稳定的性能增益。深入的消融研究显示,传统的以准确性为导向的方法(如监督微调或使用二元奖励的强化学习)难以在事实正确性与不确定性处理之间取得平衡。相比之下,我们提出的以真实性为导向的 TruthRL 在准确性和真实性方面均表现优异,凸显了学习目标设计在构建真实可信的大型语言模型中的关键作用。
7. Learning to See Before Seeing: Demystifying LLM Visual Priors from
Language Pre-training
作者: Junlin Han, Shengbang Tong, David Fan, Yufan Ren, Koustuv Sinha, Philip Torr, Filippos Kokkinos
链接: 📄 ArXiv | 🤗 HuggingFace
信息: 📅 发布日期: 2025-09-30 | 👍 点赞数: 41
摘要:
论文标题:在“看见”之前学会“看见”:从语言预训练中揭示大语言模型的视觉先验知识
中文摘要:
尽管仅通过文本数据进行训练,大语言模型(LLMs)却出人意料地发展出了丰富的视觉先验知识。这些先验知识使得模型在引入少量多模态数据后即可激发出潜在的视觉能力,甚至在某些情况下无需接触任何图像即可执行视觉任务。通过系统性分析,我们发现:所谓的“视觉先验”——即语言预训练过程中隐式获得、并涌现出的关于视觉世界的知识——可分解为可分离的感知先验与推理先验,二者具有不同的扩展规律和来源。我们发现,大语言模型潜在的视觉推理能力主要来源于以推理为核心的预训练数据(例如代码、数学、学术文本),且该能力随训练数据量逐步提升。这种从纯语言预训练中获得的推理先验具备良好的迁移性,可广泛适用于各类视觉推理任务。相比之下,感知先验则更广泛地源自多样化的语料库,其表现对视觉编码器和视觉指令微调数据更为敏感。同时,描述视觉世界的文本内容被证明至关重要,但其性能增益会迅速趋于饱和。基于上述发现,我们提出了一种以数据为中心的视觉感知型大语言模型预训练方案,并在高达1万亿token的预训练规模上验证了其有效性。本研究建立在超过100组受控实验的基础之上,累计消耗50万GPU小时,覆盖从大语言模型预训练、视觉对齐到监督式多模态微调的完整MLLM构建流程,涉及五种模型规模、多种数据类别与混合方式,以及多种适配设置。除主要发现外,本文还提出并验证了若干假设,并引入了一个新的评测基准——多层次存在性评测集(MLE-Bench)。综上所述,本工作为从语言预训练中主动培育视觉先验提供了全新视角,为下一代多模态大语言模型的发展奠定了基础。