特斯拉与三星达成价值165亿美元的协议,由三星生产特斯拉下一代AI6芯片。马斯克称这一合作具有重大战略意义,AI6芯片将用于全自动驾驶系统、Optimus人形机器人及高性能AI训练。特斯拉正与台积电合作生产AI5芯片,而三星已在生产AI4芯片。这笔交易对三星半导体业务是重大提振,马斯克表示实际支出可能会更高,并将亲自参与提升制造效率。
数据中心托管租赁是企业获取数据中心基础设施的成本效益方式,但租赁费用因多种因素而异。要优化租赁成本,可采取以下策略:选择低成本区域;整合服务器减少占用空间;将工作负载集中到单一设施以获取批量折扣;与运营商协商价格;避免购买不必要的附加服务;接受长期合同以换取更低费率。这些策略可帮助企业在保持性能和可靠性的同时显著降低托管支出。
宽带市场正向AI驱动的融合平台和个性化服务转变,成功将更依赖用户体验而非速度。Dell'Oro Group预测,2024至2029年宽带接入设备市场年均增长率为1.6%,收入将于2028年达到峰值,主要受DOCSIS 4.0和光纤扩展推动。被动光网络设备收入预计从2024年的107亿美元增至2029年的126亿美元,主要来自北美、欧洲、中东、非洲和拉美的XGS-PON部署。
软件RAID供应商Xinnor宣称其技术可在仅五小时多一点的时间内重建61.44TB SSD,速度约为传统Linux RAID重建软件的10倍。Xinnor的xiRAID产品将数据分布在驱动器集群中,每个驱动器上都有备用区域,故障驱动器的数据会恢复到这些区域,从而减少总体重建时间。测试显示,在有主机工作负载的情况下,使用xiRAID重建速度比Linux mdraid快约30倍,且写入放大因子低23%。
微软在新加坡设立了首个东南亚研究实验室,将专注于开发行业特定AI应用、基础研究和培养本地人才。该实验室将重点发展智能体AI和领域特定基础模型,初期聚焦医疗、金融和物流等关键领域,并与新加坡保健集团、新加坡国立大学和南洋理工大学展开合作,支持新加坡到2030年培养15,000名AI从业者的国家战略目标。
随着AI模型规模不断扩大,GPU内存容量已成为瓶颈。Phison和Sandisk分别提出了软硬件解决方案:Phison的aiDAPTIV+软件通过创建跨GPU内存、CPU内存和SSD的虚拟内存池,支持高达700亿参数的模型;而Sandisk的高带宽闪存(HBF)则采用类似HBM的硬件架构,通过TSV连接器将NAND闪存与GPU紧密集成。Phison方案适合中小企业和边缘系统,Sandisk方案则针对大型GPU服务器,两种技术可共存互补。
从成立之初,云势数据就坚定地与亚马逊云科技携手,逐步建立起系统的服务能力。如今,AI浪潮席卷而来,云势数据依托多年的技术沉淀,与亚马逊云科技再度联手,进入AI驱动客户互动赛道,开拓下一代客户服务的新边界。
法国AI初创公司Mistral AI发布了首个大语言模型全面生命周期评估,量化了AI的环境代价。其Mistral Large 2模型训练产生20,400吨二氧化碳当量,消耗281,000立方米水。运营阶段占环境影响85%,远超硬件制造成本。研究表明地理位置和模型大小显著影响碳足迹,企业可通过选择适当规模模型、批处理技术和清洁能源部署来减少环境影响。这一透明度为企业AI采购决策提供了新的评估标准。
上海AI实验库推出YUME系统,用户只需输入一张图片就能创建可键盘控制的虚拟世界。该系统采用创新的运动量化技术,将复杂的三维控制简化为WASD键操作,并通过智能记忆机制实现无限长度的世界探索。系统具备强大的跨风格适应能力,不仅能处理真实场景,还能重现动漫、游戏等各种艺术风格的虚拟世界,为虚拟现实和交互娱乐领域提供了全新的技术路径。
上海AI实验室研究团队开发了革命性的AI编程验证方法,让大语言模型能够在最小人工干预下自动生成和验证程序规范。该方法摒弃传统的人工标注训练,采用强化学习让模型在形式化语言空间中自主探索,在Dafny编程验证任务上显著超越现有方法,为AI自主学习开辟新道路。
德国研究机构发现AI图像生成模型的记忆删除技术存在严重缺陷,现有权重修剪方法只是表面隐藏记忆而非真正删除。研究团队开发的Dori技术能够绕过这些防护措施,重新激活看似已被遗忘的训练数据。他们提出的对抗性微调解决方案通过重塑AI整体行为模式实现更可靠的记忆消除,为AI安全和版权保护提供了新思路。
上海人工智能实验室的研究团队通过大量实验发现,AI在数学、编程、逻辑推理三个领域的跨域学习中表现出复杂的相互影响:数学与逻辑推理能力相互促进,编程训练效果因模型类型而异,多领域组合训练虽然在单项上可能不如专门训练,但整体表现更均衡。同时,模板一致性、课程学习、奖励设计等因素对AI学习效果影响巨大,中文训练的AI推理能力普遍低于英文训练。
北京大学等七所院校研究团队通过"图灵眼测试"发现,包括OpenAI o1、Claude-4在内的15个顶级多模态AI模型在人类轻松完成的基础视觉任务上几乎全军覆没,成功率接近零。研究揭示问题根源在于AI视觉编码器的泛化能力缺陷,而非推理不足,为改进AI视觉系统指明了新方向,对自动驾驶、医疗影像等应用具有重要警示意义。
华盛顿大学研究团队发现,大型语言模型在未接受手语训练的情况下,竟然具备理解德语手语的能力。通过系统实验,他们证实了模型能够判断手语语法正确性,并进行手语与文字间的翻译。这种"涌现的多模态能力"源于模型对语言抽象结构的深度理解,为开发手语翻译技术和改善聋哑人群数字交流体验开启了新可能。
谷歌DeepMind团队提出STAR方法,通过模仿苏格拉底教学法让AI学会类比推理,解决传统AI无法"举一反三"的问题。实验显示该方法显著提升AI处理新问题的能力,在逻辑推理准确率从40%提升至75%以上。这项突破为创造真正智能的AI系统指明方向,未来将在教育、医疗、创意设计等领域产生重要应用价值。
索尼与KAIST联合开发的DesignLab突破了传统AI设计工具的单步生成局限,创新性地将设计过程分解为评审和修改两个角色,通过迭代优化实现专业级PPT设计。该系统采用"逆向扰动"方法构造训练数据,在与商业工具的对比中表现优异,为AI在创意设计领域的应用开辟了新路径。
Meta和华盛顿大学研究团队开发出PrefPalette系统,首次将认知科学的多属性决策理论引入AI偏好预测。该系统通过分析19个属性维度理解用户偏好形成过程,在Reddit 45个社区测试中准确率比GPT-4o提高46.6%。系统不仅能预测用户喜好,还能解释预测原因,为构建透明可解释的个性化AI奠定基础。
瑞士苏黎世联邦理工学院研发的EXPTEACH系统让机器人首次具备了类人学习能力。通过双重记忆机制,机器人能从失败中学习并将经验应用到新任务,成功率从22%提升至80%。系统还观察到机器人自主创新行为,如使用工具解决问题。这项突破性研究为通用智能机器人发展开辟了新道路。
清华大学团队提出了一种创新的零样本量化方法,专门针对物体检测任务优化AI模型。该方法无需真实训练数据,通过自适应标签采样生成任务特定的合成图像,结合多层次知识蒸馏框架实现高效模型压缩。实验显示,该方法在多个数据集上的性能甚至超越了使用完整真实数据的传统方法,同时显著提升了训练效率,为隐私保护与AI技术发展找到了平衡点。
首尔大学研究团队开发出RALU技术,通过智能识别图像重要区域并优化计算资源分配,成功将AI图像生成速度提升3-7倍。该技术采用三阶段生成策略,重点处理边缘区域以避免失真,同时配备噪声重调度算法确保质量稳定。测试显示该技术在大幅加速的同时保持了高质量输出,且可与现有加速方法结合使用,为AI绘图工具的普及和实时应用提供了重要技术突破。