腾讯研究团队提出RLPT新方法,让大语言模型通过预测文章下一段内容进行自主学习,无需人工标注。该技术在多个基准测试中显著提升AI性能,特别是数学推理能力提升5-8分,为解决AI训练中的数据瓶颈和标注依赖问题提供了创新解决方案,展现出良好的可扩展性和实用前景。
Meta研究团队通过分析十个大型推理模型发现,AI推理质量的关键不在思考时长,而在推理效率。他们创新提出"失败步骤比例"指标,发现减少错误探索比延长思考时间更能提升准确率。研究颠覆了"长思考更好"的观念,为AI推理系统设计提供了质量导向的新思路。
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
英伟达最小的Grace-Blackwell工作站DGX Spark本周正式上市,搭载GB10系统级芯片,可提供高达1千万亿次稀疏FP4性能,配备128GB统一系统内存和200Gbps高速网络。起售价约3000美元,预装Ubuntu Linux系统。该产品主要面向AI和机器人开发者、数据科学家等专业用户,可运行高达2000亿参数的模型。支持双机互联,可处理4050亿参数模型推理。
数据中心需要大量电力,但确保可用能源得到充分利用同样重要。搁置电力指数据中心可获得但未使用的能源,代表总分配功率与实际消耗间的差距。造成搁置电力的原因包括IT设备闲置、基础设施规模不足、冷却能力有限和备用容量过度配置。搁置电力限制了数据中心扩张,且无法轻易重新分配给其他设施,还造成财务浪费。通过细粒度功率监控和冷却容量跟踪,可识别并缓解搁置电力问题。
Bun JavaScript运行时工具包1.3版本正式发布,新增全栈开发服务器、SQL API、Redis支持等多项功能。该版本通过集成JavaScript Core垃圾收集器,实现空闲CPU时间减少100倍,内存使用降低40%。尽管月下载量超500万次,但开发者对其快速扩展存在分歧,质疑是否功能过于庞杂。Bun致力于整合碎片化的JavaScript工具链,但快速发展也带来了质量问题。
浙江大学等高校研究团队开发的VolSplat系统,通过"体素对齐"替代传统"像素对齐"方法,实现了快速高质量的3D场景重建。该技术仅需6张普通照片即可生成精确3D模型,在RealEstate10K等标准数据集上显著超越现有方法,为机器人导航、增强现实、建筑设计等领域提供了新的技术选择,代表了3D重建领域从二维思维向三维思维的重要转变。
武汉大学团队与字节跳动公司合作,提出MAPO混合优势策略优化方法,解决AI训练中的"一刀切"问题。该方法能根据问题难度动态调整评分策略,避免传统方法中的优势反转和优势镜像问题。通过轨迹确定性判断和权重动态调整,在几何推理和情感识别任务上都取得显著提升,为AI自适应学习提供新思路。
苹果公司研究团队提出CAR-Flow技术,通过条件感知重参数化解决AI图像生成中的"双重负担"问题。该技术引入专门的源分布和目标分布映射组件,让不同部分专注不同任务,在ImageNet-256数据集上将FID指标从2.07提升至1.68,同时加快训练收敛速度,仅增加0.6%参数量,为生成式AI提供了更高效的架构设计思路。
华沙大学团队发布OpenGVL基准测试,这是首个专门评估视觉语言模型在机器人时间进展预测能力的开源平台。研究发现开源模型性能仅达商业模型60-70%,并展示了如何利用该工具从海量机器人数据中自动筛选高质量训练样本,解决了机器人学习领域数据质量参差不齐的关键问题。
香港科技大学研究团队开发出突破性的混合辐射场技术,成功解决了3D渲染中内存占用过大的难题。该技术巧妙结合神经网络智能和3D高斯溅射效率,将模型大小减少20倍以上,同时保持高质量图像效果和实时渲染速度。通过双重神经网络分别处理几何和外观信息,配合创新的混合渲染流程,为虚拟现实、游戏开发等领域带来革命性改进。
戴尔科技全新推出的 Dell PowerFlex Ultra,搭载可扩展高可用引擎 (Scalable Availability Engine, SAE),拥有卓越的韧性、性能与效率,可以助力企业从容驾驭大规模数据处理。
Slack正在对其内置机器人Slackbot进行重大升级,将其转变为功能更强大的AI助手。新版Slackbot将具备更智能的对话能力和任务处理功能,能够更好地理解用户需求并提供个性化服务。这一改进旨在提升团队协作效率,让用户能够通过自然语言与AI助手互动,获得更便捷的工作体验。
OpenAI宣布与博通达成为期四年的基础设施合作伙伴关系,将部署10千兆瓦的数据中心硬件。该基础设施将采用双方共同开发的定制AI处理器,OpenAI使用自有神经网络设计芯片以实现大幅面积缩减。系统将配备博通的PCIe和以太网设备,首批数据中心机架预计2026年下半年投入使用,其余系统将在2029年前上线。
AI正在重塑IT行业格局,传统入门级工作因自动化而消失,同时催生新的角色和职责。LinkedIn研究显示,到2030年70%的工作技能将发生变化。企业面临高级IT人才短缺问题,CIO需要重新定义入门级岗位,从重复性任务转向架构思维和系统集成。关键需求技能包括AI工程、数据分析、云管理和网络安全。成功策略包括建立学徒制培训、强化跨职能协作、投资软技能发展,以及创造安全的实验环境。
在今年的开放计算项目峰会上,英伟达宣布Meta和Oracle将采用其Spectrum-X以太网平台,这是专为AI工作负载打造的系统,可将数百万GPU连接成统一架构。该平台专门为大规模AI工作负载设计,声称网络性能比传统以太网提升1.6倍。Meta将其集成到开放交换系统中,Oracle则用它构建千兆级AI工厂,标志着网络已成为AI时代的新操作系统。
瑞士苏黎世大学古代史教授Felix K. Maier与计算语言学家Phillip Strobel合作开发了名为"Re-Experiencing History"的AI图像生成器。该平台通过近300张精心策划的学术图像和70篇研究文献训练,能够生成历史上合理的古罗马和希腊场景。系统可为教育工作者、研究人员和博物馆提供可视化历史假设,促进对历史的深度理解。
超大规模企业广泛采用 NVIDIA 网络解决方案,驱动十亿瓦级(Giga-Scale)高性能 AI 数据中心