Amazon联合伊利诺伊大学开发PROF算法,解决AI数学推理中"答案对但过程错"的问题。该方法通过同时评估结果正确性和推理过程质量,筛选高质量训练样本,让AI既能答对题目又掌握清晰思维方法。实验显示准确率平均提升4%以上,推理过程质量显著改善,为构建可解释AI系统提供新思路。
斯坦福团队开发LMEnt系统,首次实现对AI语言模型知识获取过程的精确追踪。该系统通过精细标注维基百科、构建高精度检索系统和训练多个模型,揭示了AI学习知识的动态过程——高频事实更易学会但也易遗忘。这项研究为理解AI内部机制、改进模型设计提供了重要工具和洞察。
这项由首尔国立大学等机构开展的研究创建了首个专门评估AI代理完成游戏完整故事任务的基准平台FlashAdventure。研究发现当前最先进的AI代理在复杂冒险游戏中成功率仅为5.88%,远低于人类的97.1%。为此提出了COAST框架来改进AI的长期记忆和推理能力。
YouTube在年度Made on YouTube活动中发布多项更新,包括Studio新增"相似度"检测和唇同步配音功能,YouTube Live支持迷你游戏和双格式同步直播,Shorts集成Veo 3 AI视频生成模型。此外还推出播客AI剪辑工具、新的货币化选项如品牌合作和购物标签功能,以及YouTube Music的粉丝互动新特性。
英国政府与美国数据分析公司Palantir达成国防合作协议,该公司将投资15亿英镑并在英国设立欧洲国防总部,创造350个就业岗位。双方将合作开发AI驱动的军事决策和目标定位系统,这些技术已在乌克兰得到测试。该协议是英国战略防务评估的重要组成部分,旨在提升军事规划和目标选择能力。此次合作是美国科技巨头对英国310亿英镑投资承诺的一部分。
英国政府委托专家制定的网络增长行动计划提出九项核心建议,旨在加强网络安全行业以推动经济韧性和增长。该计划由帝国理工学院和布里斯托大学专家撰写,咨询了近百名网络安全专业人士。报告显示英国网络安全行业保持上升态势,就业和收入增长超10%,但仍存在巨大未开发潜力。计划围绕文化、领导力和地域三大支柱展开,包括任命网络增长领导者、扩大国家网络安全中心资源等建议。
Meta平台公司已向美国联邦监管机构提交申请,寻求在批发市场销售电力的授权。该公司通过子公司Atem Energy提交申请,希望获得"销售能源、容量和某些辅助服务"的许可。随着Meta、微软和谷歌等科技巨头竞相开发资源密集型的先进人工智能系统,购买更多电力已成为这些公司面临的紧迫挑战。
谷歌推出了由人工智能Gemini技术驱动的全新Google Home应用,为用户带来更加智能化的家居控制体验。新版应用集成了先进的AI功能,能够更好地理解用户需求,提供个性化的智能家居管理方案,标志着谷歌在智能家居领域的重要技术升级。
该课程由中国科协科学技术创新部委托,科技部科技评估中心统筹制作,基于我国首套初、中、高级技术经理人培训教材精心打造,为广大技术转移从业者及相关人员提供了科学、系统、便捷的在线学习资源。
马里兰大学研究团队推出DynaGuard,这是首个能理解用户自定义规则的AI守护模型。不同于只能识别预设类别的传统系统,DynaGuard能处理自然语言编写的任何规则,并提供详细解释帮助AI自我纠正。该模型基于40000个场景的DynaBench数据集训练,在传统安全任务和定制规则处理上都表现优异,为AI安全技术开辟了新方向。
Google DeepMind研究团队通过理论分析和实验验证,发现了AI搜索系统的数学局限:基于固定维度向量的搜索无法表示所有文档组合关系。他们创建的LIMIT测试集让顶尖AI模型准确率低于20%,证明问题源于数学本质而非工程缺陷。
北京交通大学等五所高校联合开发Face-MoGLE系统,这是首个同时运用全局和局部专家协作的AI人脸生成技术。该系统能根据文字描述、面部轮廓图或两者结合精准生成真实人脸,在多项测试中显著超越现有技术。通过专家分工和动态门控机制,实现了生成质量与可控性的完美平衡,在数字创作和公共安全领域具有广阔应用前景。
香港科技大学团队首创Video-MTR系统,让AI像侦探一样进行多轮推理来理解长视频。该系统不再一次性分析整个视频,而是先粗略观察,再针对性深入关键片段,最多进行三轮调查。通过双层奖励机制和仅8000个精选训练样本,在三大权威测试中均达到开源系统最佳水平,特别在长视频理解上提升显著。
中科院团队发现AI视觉模型在复杂场景中容易"分心",开发了CARVE对比注意力方法。该方法通过对比AI在通用指令和任务指令下的注意力差异,识别并屏蔽视觉干扰,突出重要区域。实验显示开源模型性能提升达75%,方法无需重训练即可应用于现有模型,为提升AI视觉推理能力提供了实用解决方案。
Meta FAIR发布突破性视觉语言世界模型VLWM,首次让AI具备"想象未来"能力。该系统能观看视频理解环境,在脑海中模拟行动结果并选择最优方案,包含快速直觉和深度思考两种规划模式。基于18万视频训练,在多项基准测试中表现卓越,人类评估Elo评分达1261。
ByteDance联合普林斯顿大学提出CASTLE技术,通过"前瞻钥匙"机制让AI语言模型突破传统"只看前文"的局限,能够在理解每部分内容时整合后续相关信息。该技术在保持计算效率的同时显著提升了模型性能,在多个基准测试中表现优异,为AI更好地理解全局上下文和处理复杂语言现象提供了新解决方案。
由StepFun等机构开发的UniVerse-1是全球首个开源音视频同步生成模型,采用创新的"专家缝合"技术融合视频和音频生成专家,配合在线标注流水线解决数据对齐问题,在7600小时训练数据上实现了协调的音视频内容生成,为开源社区提供了完整的技术方案和评估基准。
美国孟菲斯大学研究团队创新性地将遗传算法引入AI数据生成,提出"遗传提示框架"。该方法将文本语义特征视为"基因",通过模拟生物杂交和变异过程,让AI能够生成更高质量、更多样化的合成数据。在八个数据集的测试中显著超越现有方法,特别在处理数据不平衡问题时表现卓越,为解决AI训练数据稀缺问题开辟了新途径。
这项由Google DeepMind团队完成的研究开发了AlphaFold系统,能够从氨基酸序列准确预测蛋白质三维结构。在CASP14竞赛中,系统达到92.4分的惊人准确度,远超传统方法。该技术正在革命性地改变药物研发、基础生物学研究等领域,为科学家提供了快速获取蛋白质结构信息的强大工具,标志着计算生物学的重大突破。