一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
美国薪资调查数据显示,大型企业(员工超过1000人或年收入超过5亿美元)的IT专业人员薪资更高,福利更好,离职率更低。大企业高管级IT职位薪资比小企业高13%,三个层级员工平均年薪多5119美元。科技公司员工薪资比其他行业高5.7%,且差距在扩大。AI需求持续旺盛,首席AI官平均薪资达225945美元,仅次于CIO。然而整体IT薪资增长疲软,仅0.88%,低于通胀率。
法国AI初创公司Mistral发布首个音频模型家族Voxtral,旨在为企业提供真正可用的语音智能解决方案。该模型可转录30分钟音频,理解40分钟内容,支持问答、摘要生成和语音命令执行。Voxtral支持英语、西班牙语、法语等8种语言,提供24B参数的Small版本和3B参数的Mini版本。定价从每分钟0.001美元起,声称成本不到同类方案的一半。
Google在其搜索应用的Discover新闻推送中开始推出AI摘要功能,用户将看到多个新闻发布商的标识和AI生成的摘要,而非传统的新闻标题。该功能目前仍在测试阶段,尚未覆盖所有新闻故事。此举引发出版业担忧,因为AI概览等功能已导致网站流量大幅下降。数据显示,全球搜索流量同比下降15%,无点击新闻搜索比例从56%增至69%。尽管Google推出了Offerwall等工具帮助发布商创收,但对许多发布商而言已为时过晚。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。
中国电信研究院等机构联合开发的xVerify系统,专门解决复杂AI推理模型的评估难题。该系统能够准确判断包含多步推理过程的AI输出,在准确率和效率方面均超越现有方法,为AI评估领域提供了重要突破。
昆仑公司Skywork AI团队开发的Skywork R1V模型,成功将文本推理能力扩展到视觉领域。该模型仅用380亿参数就实现了与大型闭源模型相媲美的多模态推理性能,在MMMU测试中达到69.0分,在MathVista获得67.5分,同时保持了优秀的文本推理能力。研究团队采用高效的多模态迁移、混合优化框架和自适应推理链蒸馏三项核心技术,成功实现了视觉理解与逻辑推理的完美结合,并将所有代码和权重完全开源。
Essential AI团队通过系统研究发现,大语言模型的反思能力在预训练阶段就开始萌芽,而非传统认为的仅在强化学习后出现。研究团队对OLMo-2等模型的240个检查点进行测试,发现简单的"Wait,"触发词就能激发模型识别和纠正推理错误的能力。这种反思能力随预训练规模增长而提升,在数学、编程、逻辑推理等六个领域都有体现,为AI系统的高效开发提供了新思路。
这项研究首次提出了"任意条件到文字描述"的视频生成新模式,通过多模态大语言模型将用户的各种创意输入转化为结构化描述,再驱动现有视频生成系统。研究团队构建了包含33.7万实例的大规模数据集,并设计了创新的渐进式训练策略,实现了对图像、人体姿态、摄像机轨迹等多种条件的统一理解,显著提升了视频生成的可控性和质量。
南京大学团队提出DDT(解耦扩散变换器)架构,通过"分工合作"方式将AI绘画中的语义理解和细节生成任务分离。该方法在ImageNet数据集上创下1.31 FID的新纪录,训练效率提升4倍,推理速度提升3倍,为AI图像生成领域带来突破性进展。
上海人工智能实验室等机构联合发布VisuLogic基准测试,专门评估AI的纯视觉推理能力。测试包含1000道人工验证题目,涵盖数量、空间、位置等六类推理任务。结果显示,包括GPT-4o在内的顶级AI模型准确率仅26-28%,远低于人类51.4%的表现,揭示了当前AI在视觉逻辑推理方面的严重不足。研究通过强化学习训练实现了显著提升。
微软研究院开发出革命性的1位大语言模型BitNet b1.58 2B4T,仅需0.4GB内存就能运行2千亿参数规模的AI模型,相比传统模型内存消耗降低90%以上,能耗降低95%,推理速度提升40%,在保持相当性能的同时让AI技术真正实现普及化。
Allen Institute for AI推出首个能实时追溯大语言模型输出到万亿训练数据来源的系统OLMOTRACE。该系统通过创新的并行算法,可在几秒内找到AI回答中与训练数据完全匹配的文本片段,为AI行为分析开创了新范式。支持事实核查、创意溯源等应用,已在AI2 Playground开放使用。
Gartner预测到2027年末,超过40%的代理型AI项目将因成本不断攀升、商业价值不明确或风险控制不足而被取消。
上海交大团队首次建立AI视觉推理评估标准RISEBench,测试发现即使最先进的GPT-4o-Image在推理驱动的图像编辑任务中准确率仅28.8%。研究涵盖时间、因果、空间、逻辑四大推理维度,揭示当前AI缺乏真正理解物理规律和逻辑关系的能力,为AI发展指明了从模式识别向深层推理转变的重要方向。
NVIDIA研究团队发布了Eagle 2.5,这是一个突破性的视觉语言模型,专门用于长视频理解任务。该模型仅使用80亿参数就在Video-MME等基准测试中达到72.4%的准确率,与GPT-4o等顶级商业模型相当。Eagle 2.5采用了信息优先采样、渐进式训练和专门构建的Eagle-Video-110K数据集,能够处理数小时的长视频内容,为AI视频理解技术的普及化开辟了新路径。
阿里巴巴等机构联合研究团队通过分析2021-2024年间148个国家发布的2000多个多语言AI评测基准,发现尽管全球已投入超过1100万美元,但现有评测体系与人类真实判断仍存在巨大鸿沟,特别是在语言理解任务上关联度仅11-30%,远低于数学推理任务的70-85%。
这项由上海交通大学与OPPO人工智能中心合作的研究首次深入探索了多模态大语言模型的视频空间推理能力提升方法。研究发现传统提示词对小型模型无效,转而采用GRPO强化学习训练法,构建了包含10万样本的VSI-100k数据集。最终,仅20亿参数的vsGRPO-2B模型性能提升12.1%并超越GPT-4o,证明了正确训练方法能够显著释放AI模型的空间理解潜力。