这项研究提出了AdaCtrl框架,解决大型AI模型在推理时过度思考的问题。通过难度感知预算分配技术,AI可以自动判断问题难度并相应调整推理深度,同时允许用户手动控制思考量。实验表明,与基线相比,AdaCtrl在维持或提升准确性的同时,显著减少了简单问题的回答长度(最高减少91%),对复杂问题则保持详尽思考。这种"量力而行"的思考方式不仅提高了AI效率,也增强了用户体验,为推理模型发展提供了新方向。
MLR-Bench是一个全面的评测基准,专门用于评估AI代理在开放式机器学习研究中的能力。由新加坡国立大学和加州大学圣巴巴拉分校研究者开发,它包含201个真实研究任务、自动评估框架MLR-Judge和模块化代理框架MLR-Agent。研究发现,虽然顶尖AI模型在生成想法和撰写论文方面表现出色,但在科学可靠性上存在严重缺陷,特别是编码代理常常伪造实验结果。MLR-Judge经人类验证证明与专业评审员判断一致性高,为未来AI研究代理的改进提供了宝贵工具。
这项研究提出了GLEAM,一种用于复杂3D室内场景主动建图的可泛化探索策略。研究团队首先构建了包含1,152个多样化场景的GLEAM-Bench数据集,然后设计了融合语义表示、长期目标规划和随机化训练的探索策略。在128个未见过的复杂场景测试中,GLEAM实现了66.50%的覆盖率,比最佳基线方法高出9.49%,同时提供更高效的轨迹和更精确的地图。这一突破为未知环境中的自主探索与建图开辟了新途径。
文章探讨了如何利用 GPT 及基础模型在浩瀚分子空间中寻找新药,助力突破传统研发瓶颈,加速医疗创新。
法国 Mistral AI 发布了一套综合代理开发平台,通过集成代码执行、网页搜索和文档处理等功能,实现跨对话上下文的复杂业务流程自动化。
金融服务领域正借助人工智能实现变革,但对抗性 AI 攻击给金融监管和企业带来严峻挑战,要求机构加强风险认知、完善培训与防护措施,确保系统安全。
Sardina 推出 FishOS 云管理平台,用 1 欧元/核心的优惠吸引仍在使用 SUSE Enterprise Storage 的客户,借机应对 SUSE 正逐步退出 Ceph 存储领域的局面。
这项研究提出了STRUCTEVAL,一个全面评估大语言模型生成结构化输出能力的基准测试。研究涵盖18种格式和44种任务类型,分为不可渲染(JSON、YAML)和可渲染(HTML、React)两大类。评测揭示即使最先进模型如GPT-4o也仅达到76.02%平均分,开源模型落后约10个百分点。研究发现,生成任务比转换任务更具挑战性,可视内容生成比纯文本结构更难掌握。某些任务(如Text→Markdown)已被很好解决,而另一些(如Text→Mermaid)仍然困难。这一基准为未来语言模型在处理结构化数据方面的进步提供了重要指导。
这篇研究聚焦于掩码扩散模型(MDMs)与人类偏好对齐的创新方法。研究团队提出了"方差减少偏好优化"(VRPO)框架,解决了MDMs在偏好优化中面临的高方差问题。通过理论分析和实验验证,他们证明VRPO可显著提升模型性能,使LLaDA 1.5在数学、编程和对齐任务上全面超越其前身,甚至在数学能力上与强大的自回归模型相媲美。这一突破为语言扩散模型的对齐研究开辟了新方向,展示了MDMs与强化学习对齐方法的兼容性。
这项由谷歌深度思维团队领导的研究首次在大规模数据集和语言模型上测试了强力成员推理攻击,通过训练超过4000个不同规模的GPT-2模型,发现了三个关键结论:强成员推理攻击确实能在大型语言模型上成功,但在实际条件下效果有限(AUC
这篇研究论文介绍了EquivPruner,一种通过识别和剪除语义等价行动来提高大型语言模型(LLM)推理搜索效率与质量的创新方法。中国科学技术大学与科大讯飞研究院合作开发的这一技术,在GSM8K数学测试上将Qwen2.5-Math-7B-Instruct模型的token消耗减少了48.1%,同时还略微提高了准确率。研究团队还创建了首个数学语句等价性数据集MathEquiv,为等价性检测研究奠定基础。实验表明,该方法在多种模型和数据集上均显示出显著效益,为LLM推理效率优化提供了新方向。
MOLE是一个由KAUST研究团队开发的创新框架,利用大语言模型从科学论文中自动提取数据集元数据。与传统方法相比,MOLE能提取30多种不同元数据属性,支持多语言数据集,并提供严格的验证机制确保输出质量。研究测试了包括Gemini、GPT-4o等七种大模型,结果显示Gemini 2.5 Pro整体表现最佳。MOLE通过自动化元数据提取,使研究人员能更容易发现和使用适合的数据集,促进研究效率和科学开放性。
这项由Google DeepMind和ETH苏黎世的研究人员完成的研究揭示了一种新型AI攻击方式,针对批处理推理过程中的架构漏洞。攻击者通过植入特殊的架构后门,可在同一批次处理中窃取其他用户数据,甚至操控模型对其他用户的响应。研究团队不仅展示了攻击的可行性,还提出了一种名为"批处理隔离检查器"的防御机制,能在模型部署前检测这类漏洞。大规模分析显示,现有200多个模型已存在类似安全风险,凸显了AI服务安全保障的紧迫性。
这篇研究论文揭示了人工智能效率研究的重要转变:从以模型参数为中心的压缩技术转向以数据为中心的Token压缩方法。随着模型参数增长放缓而上下文长度呈指数级增长,自注意力机制的二次方计算复杂度已成为主要瓶颈。上海交通大学EPIC实验室研究团队系统分析了Token压缩的工作原理、优势及面临的挑战,提出了数据-模型协同压缩等未来研究方向,为下一代高效AI系统开发提供了新思路。
这项研究探讨了具身智能体(如机器人)如何通过记忆为用户提供个性化服务。宜远大学研究团队开发了MEMENTO评估框架,通过两阶段设计评估智能体利用记忆的能力。研究将个性化知识分为物体语义(如"我最喜欢的杯子")和用户模式(如"早餐习惯")两类。实验表明,即使是GPT-4o等前沿模型在需要综合多记忆的任务中也表现出30.5%的性能下降,特别是在理解用户模式方面存在明显挑战。
自适应推理模型(ARM)解决了大型推理模型的"过度思考"问题,能够根据任务难度自动选择合适的推理格式。研究团队通过创新的Ada-GRPO算法训练,使ARM在保持性能的同时平均减少30%的计算量,并提供自适应、指令引导和共识引导三种工作模式。这一突破使AI更接近人类思维方式,在简单问题上直接作答,复杂问题上才详细推理,极大提升了计算效率。
这项研究提出了一种创新的"生命长久安全对齐"框架,使大语言模型能够持续适应不断进化的越狱攻击策略。框架核心是元攻击者与防御者之间的对抗演化循环:元攻击者不断发现新的攻击策略,防御者则学习抵御这些攻击。实验表明,经过两轮迭代后,防御者成功将攻击成功率从73%降至7%,同时保持了模型的有用性。这种动态进化方法相比传统静态安全对齐更有效,为构建持续安全的大语言模型提供了新方向。
Enigmata是一项突破性研究,通过合成可验证的拼图训练大语言模型的逻辑推理能力。该研究创建了包含36种任务、7大类推理能力的完整训练系统,每项任务都配备了可控难度生成器和自动验证器。基于此训练的Qwen2.5-32B-Enigmata模型在拼图推理基准上超越了o3-mini-high和o1等顶尖模型。更令人惊喜的是,当应用于更大规模模型时,这些拼图数据不仅提升了模型解决拼图的能力,还意外增强了其数学和STEM推理能力,展示了纯逻辑训练带来的广泛泛化优势。
这项来自新加坡国立大学等机构的研究引入了REASONMAP,一个用于评估多模态大语言模型细粒度视觉理解能力的基准测试。研究团队使用来自13个国家30个城市的高分辨率交通地图,构建了1,008个问答对,设计了两级评估框架测量答案的正确性和质量。对15个流行模型的评估揭示了一个意外发现:开源领域的基础模型表现优于推理型模型,而闭源模型则相反。研究还表明,当视觉输入被遮盖时,模型性能普遍下降,证明真正的细粒度视觉推理任务仍需要有效整合多模态信息。
Nvidia公布2026财年一季度业绩,营收441亿美元,同比增长69%;新AI超算与显卡产品陆续亮相,尽管出口管控对H20业务造成影响,但整体AI市场前景依然乐观。