苹果将在 WWDC 2025 上推出重磅软件更新,包括 iOS 全新设计、系统命名变革、AI 功能提升及游戏体验升级,进一步优化跨设备生态。
这篇论文介绍了R1-Code-Interpreter,一种通过有监督学习和强化学习训练大型语言模型进行代码推理的新方法。研究团队收集了144个推理和规划任务,利用多轮训练教会模型自主决定何时使用文本推理或生成代码。最终的14B模型在测试集上将准确率从44.0%提高到64.1%,超过纯文本GPT-4o并接近带Code Interpreter的GPT-4o。研究揭示了SFT阶段的关键作用,并发现模型展现出自发的自我检查行为,为开源模型提供了与商业模型竞争的代码解释器能力。
这项研究探索了一种全新的AI文本生成方式:"弗兰肯文本"。灵感来自《弗兰肯斯坦》小说,研究者让大型语言模型在一个极端条件下创作:90%的内容必须直接复制自人类写作片段。尽管限制严格,但像Gemini-2.5-Pro这样的模型能生成既符合写作提示又保持连贯的故事。令人惊讶的是,这些混合文本常常逃过AI检测工具的识别——多达59%被误判为人类写作。这项研究不仅挑战了现有AI检测技术,还为混合作者归属研究提供了宝贵数据,并为人类-AI协作写作研究创造了可控的实验环境。
ISTA和Red Hat AI的研究团队在《Unified Scaling Laws for Compressed Representations》论文中提出了一个革命性的统一框架,揭示了AI模型压缩背后的数学规律。他们发现,无论使用什么压缩方法,模型性能都可以通过"表示容量"这一单一指标准确预测,而这一指标与表示法拟合随机高斯数据的能力直接相关。研究不仅证明了容量在组合表示中可以分解,还开发了基于容量的改进稀疏训练方法,在同等参数条件下显著提升模型性能。
这项研究揭示了机器生成文本检测器的重大漏洞。意大利研究团队通过直接偏好优化技术,成功训练AI模型生成更像人类的文本,导致顶尖检测器准确率下降高达60%。研究者分析了语言特征分布变化,发现经过训练的模型能有效模仿人类写作特征,而检测器主要依赖于浅层语言线索识别AI文本。这一发现为开发更可靠的检测方法提供了重要参考,同时也警示我们区分人类与AI内容将变得越来越困难。
武汉大学研究团队开发了PCogAlign框架,使视觉语言模型能够理解人类的个性化情境认知。研究采用社会学中"角色集合"概念描述人类多样性,构建了PCogAlignBench基准测试集,包含18,000个样本和20个不同角色集的个体。该框架通过估计情境认知、采样个性化回应和使用认知感知奖励模型选择最佳回应,使AI能够根据不同人的背景提供个性化帮助,实验证明其性能优于现有方法。
这项由ETH苏黎世、ELLIS图宾根研究所和MPI图宾根的研究者合作完成的论文,揭示了评估大型语言模型预测能力时的关键陷阱。研究发现两类主要问题:数据时间泄露导致评估结果不可信,以及基准测试表现难以外推到实际预测能力。通过系统分析,研究者展示了这些问题如何可能导致对语言模型预测能力的过度乐观评估,并提出了更严格的评估方法建议,以帮助科研社区更准确地判断大模型的真实预测能力。
CityLens是清华大学和北京交通大学联合开发的基准测试系统,旨在评估大型语言-视觉模型通过城市图像预测社会经济指标的能力。研究团队构建了一个覆盖17个全球城市的多模态数据集,包含经济、教育、犯罪、交通、健康和环境六大领域的11项指标。通过直接指标预测、归一化指标估计和基于特征的回归三种评估方法,他们测试了17种最先进的大型语言-视觉模型。结果表明,虽然这些模型展示了有希望的感知和推理能力,但在准确预测城市社会经济指标方面仍有明显局限。
Snapchat 推出全新 watchOS 应用,支持 Apple Watch 用户预览及通过键盘、手写、语音或表情快速回复消息,打造便捷的多平台通讯体验。
6月5日,由中国移动研究院与中国光网络研讨会(OptiNet China)联合主办的首届“卫星光通信与智能组网技术”专项研讨会在北京召开。
Amazon旗下秘密研发机构Lab126新成立团队,专注在机器人上嵌入自主代理AI,实现通过自然语言完成复杂任务,从而提升仓储物流与配送效率,同时开发高精度地图技术。
本文介绍了 Anthropic 开源的电路追踪工具,通过生成归因图和介入实验全面揭示大语言模型内部机制,助力企业高效调试和优化。
三星与 Glance 合作推出 AI 购物体验,通过自拍生成个性化时尚广告,并在三星手机上陆续推出,用户可自主选择接入,但涉及位置追踪及数据存储问题。
本文探讨了达成人工通用智能(AGI)七大路线中的线性进阶路径,预测了从2025年至2040年 AI 技术与社会效应的关键年度节点。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。
MASKSEARCH是阿里巴巴集团同义实验室开发的新型预训练框架,通过创新的"检索增强掩码预测"任务,训练大型语言模型像人类一样主动使用搜索工具获取信息。这项框架包含两个阶段:首先在掩码预测任务上预训练,然后在下游任务上微调,大幅提升模型在开放域问答中的表现。研究采用监督微调和强化学习两种方法,结合多代理系统和课程学习策略,使AI能够自主分解问题、使用搜索工具并基于搜索结果进行推理。
SmolVLA是由Hugging Face、巴黎索邦大学等机构联合开发的小型视觉-语言-动作模型,专为低成本机器人设计。与现有模型相比,它仅有4.5亿参数(小10倍),却能达到相当性能。SmolVLA采用精巧架构设计,可在单GPU训练、CPU部署,并使用社区收集的数据集训练。研究还引入异步推理策略,提高了机器人的响应速度和适应性。实验证明,它在模拟和真实环境中的表现均超越许多资源密集型模型,为机器人技术的普及开辟了新途径。
AREAL是一个由清华大学和蚂蚁研究院开发的全新异步强化学习系统,专为提升大语言模型的推理能力而设计。与传统同步系统不同,AREAL完全解耦了生成和训练过程,推理工作器持续生成新输出,训练工作器则在收集到足够数据时更新模型。通过创新的过时性感知训练和解耦PPO目标函数,AREAL成功解决了异步训练中的数据过时和策略不一致问题。实验表明,AREAL在数学和代码推理任务上实现了高达2.57倍的训练加速,同时保持或提高了模型性能。