CineMaster是由大连理工大学等机构联合开发的突破性视频生成框架,首次实现了电影级别的三维空间精确控制。用户可在三维环境中自由摆放物体、设计摄像机运动,系统自动生成符合预期的高质量视频。该技术通过创新的数据标注流水线和分阶段训练策略,在物体定位精度和运动控制准确性方面显著超越现有方法,为可控视频生成领域树立了新标杆,有望推动创意产业的民主化发展。
新加坡国立大学团队开发的PhotoDoodle系统,通过两阶段训练策略实现了从少量样本学习艺术家照片涂鸦风格的突破。该系统采用位置编码复用和无噪声条件机制,仅需30-50对图片样本就能掌握特定艺术风格,在保持背景完整的同时精确添加装饰元素,为AI辅助艺术创作开辟了新方向。
亚利桑那州立大学等多所高校联合研究发现了AI评估中的"偏好泄漏"现象:当大语言模型既用于生成训练数据又用于评判学生模型时,会产生系统性偏见,偏爱体现自己风格的回答。研究显示这种偏见可达23.6%,比已知的自我中心偏见影响更严重,可能导致AI评估排行榜出现系统性偏差,威胁AI评估体系的公正性。
四川大学研究团队发现,当前先进的AI模型在面对信息不完整的数学问题时,缺乏主动询问澄清信息的能力,更倾向于基于假设给出答案。
商汤科技研究团队开发了MaskGWM,一个革命性的自动驾驶预测系统。该系统采用创新的"双重学习法",让AI同时掌握图像生成和逻辑推理能力,能够预测长达12秒的未来驾驶场景。通过空间和时间两个维度的掩码重建训练,结合多视角预测能力,MaskGWM在标准测试中显著超越现有技术,并展现出强大的跨域泛化能力,为更安全智能的自动驾驶技术奠定了重要基础。
UC伯克利研究团队发现,仅用17000个训练样本就能让AI获得强大推理能力,关键在于推理的逻辑结构而非具体内容正确性。即使训练数据包含错误答案或错误计算,AI仍能学会推理,但一旦打乱逻辑结构,性能就会急剧下降。该发现颠覆了AI训练需要海量完美数据的认知,为资源有限的团队提供了经济高效的AI推理能力培养方案。
牛津大学研究团队发现大型语言模型存在"深度诅咒"现象:深层网络对模型贡献微乎其微,造成计算资源浪费。研究揭示Pre-LN架构中方差指数增长是根本原因,并提出层归一化缩放(LNS)解决方案。LNS通过简单的缩放因子控制方差增长,让每层都发挥作用,在各种规模模型上都实现显著性能提升,为提高AI训练效率提供了重要突破。
从11岁就梦想造人形机器人的Bernt Bornich,用'huggable'形容他的Neo Gamma机器人——这个能举起150磅的66磅'运动员',正以家庭为试验场突破AI学习瓶颈:'工厂20小时就触及学习天花板,而家庭环境的多样性才是通往AGI的钥匙'。
从金冠到雅客、友臣、蜡笔小新,这些曾风靡小卖铺与超市货架的老牌零食厂商,一度因渠道滞后、品牌老化而淡出人们视野。而如今,它们在拼多多上正迎来一场集体复兴。
斯坦福大学研究发现,主要用英语训练的大型语言模型竟能自发学会处理其他语言任务,无需明确教学。这种跨语言迁移能力随模型规模增大而显著提升,通过形成"通用语义空间"实现不同语言间的知识迁移。研究为降低多语言AI开发成本、支持资源稀缺语言提供了新途径,但仍面临性能不均衡、文化适应性等挑战。
8 月 13 日至 16 日,以 “绿动算力 超智融合” 为主题的第 21 届 CCF 全国高性能计算学术大会(CCF HPC China 2025)在鄂尔多斯国际会展中心盛大举办并圆满落幕。
随着谷歌搜索和亚马逊主页在电商领域影响力下降,AI助手如ChatGPT、Claude等成为消费者新的购物入口。品牌必须掌握生成式引擎优化(GEO)技术才能保持可见性。传统SEO策略已失效,AI系统更青睐结构化、问答式的高质量内容。研究显示,来自AI助手的流量转化率比其他渠道高9倍。品牌需要基于真实客户问题创建内容,采用结构化问答格式,并建立信任度,才能在这个新的电商秩序中脱颖而出。
2025年第一季度网络攻击激增126%,英国新法案要求数据中心强制报告网络安全事件。现代威胁已演变为同时攻击IT和OT系统,而许多数据中心的备用电源系统仍使用90年代的过时技术。电池储能系统(BESS)通过分布式架构、加密通信和自主运行能力提供网络弹性防护。BESS即服务模式将网络安全维护转移给专业提供商,同时通过需求响应和能源套利创造收益。随着全球法规要求将网络安全与能源安全相结合,数据中心需要现代化基础设施来应对日益严峻的威胁环境。
阿姆斯特丹大学与Salesforce合作开发的奖励引导推测解码(RSD)技术,通过让小模型处理简单任务、大模型解决复杂问题的智能分工,在保持推理准确率的同时大幅提升计算效率。该技术在数学推理等任务中表现出色,计算量最多可减少75%,为AI应用的普及和成本降低提供了重要技术支撑。
微软研究院开发出LongRoPE2技术,能让大型语言模型的记忆容量扩展64倍至12.8万字,同时保持98.5%的原有性能。该方法通过发现AI位置编码训练不均衡问题,采用智能搜索和混合训练策略,仅用传统方法八十分之一的资源就实现突破。这项技术将使AI能完整处理长文档、进行复杂对话,为文档分析、代码开发、内容创作等领域带来重大改进。
华中科技大学联合地平线机器人开发RAD自动驾驶训练系统,首次将3D高斯点云渲染技术应用于强化学习,在逼真虚拟环境中让AI通过试错学习驾驶技能。该方法巧妙结合模仿学习与强化学习,将碰撞率降低3倍至8.9%,同时保持人类化驾驶风格。研究为自动驾驶AI安全训练开辟新路径,预示更可靠的无人驾驶汽车即将到来。
华盛顿大学研究团队发现小AI模型无法有效学习大模型的复杂推理方法,提出了"小模型可学习性差距"概念。他们通过大规模实验证明,小模型更适合学习简洁推理而非复杂推理,并创新性地提出混合蒸馏法,将不同复杂度的训练数据按比例组合,显著提升了小模型性能,为AI模型训练策略提供了新的"因材施教"思路。