2025 年 7 月 8 日,PTC宣布,AI 机器人与自主物流技术的领导者 Nimble 已决定采用 PTC 的云原生 Onshape CAD 和 PDM 平台、以及 云原生Arena PLM 和 QMS 平台,全面取代其传统的计算机辅助设计(CAD)、产品数据管理(PDM)、产品生命周期管理(PLM)及质量管理系统(QMS)工具。
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。
这项由中国香港中文大学(深圳)团队主导的研究发现,AI大模型存在"前缀主导陷阱"问题——仅15%的错误开头就能导致20%的性能下降。研究团队创新性地提出LeaP方法,让多个AI推理路径在思考过程中互相交流协作,显著提升了推理准确性。实验显示,使用LeaP的32B模型甚至超越了671B模型,证明了AI协作的巨大潜力。
中科院研究团队发现了AI持续学习的数学规律,开发出能精确预测大语言模型在新领域学习过程中每一步表现的公式。该研究揭示AI学习本质是在两条隐藏轨道间切换,通过分布偏移和学习率衰减两个因素的相互作用实现。这一突破为优化AI专业化训练提供了科学依据,有望让未来AI助手在保持通用能力的同时获得更强的专业技能。
中科院团队开发了名为IKEA的AI搜索助手系统,解决了现有AI过度依赖外部搜索或内部知识的问题。该系统通过创新的知识边界感知机制和奖励设计,让AI学会准确判断何时使用内部知识、何时进行搜索。实验结果显示,IKEA在保持高准确率的同时,将搜索次数减少了50%以上,为开发更智能、高效的AI助手提供了新思路。
ByteDance Seed研究团队提出AttentionInfluence方法,让13亿参数小模型为70亿参数大模型筛选训练数据。该方法利用模型内部注意力机制判断数据质量,无需人工标注。实验显示在推理密集型任务上性能提升1.4-3.5%,展现了"弱到强"的泛化能力,为AI训练数据选择提供了新的解决方案。
Adobe研究院开发出让AI学会准确引用信息来源的新方法,通过简单的"对错判断"策略和注意力机制分析,显著提升了AI系统在归因任务上的表现,为解决AI"胡说八道"问题提供了实用解决方案。
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
美国垃圾收集行业2024年创收690亿美元,近18万辆垃圾车每周运营六至七天,每日停靠超千次。设备故障成为行业最大隐性成本,每辆车年均故障费用超5000美元。AI技术通过实时监控传感器数据,能提前数周预测故障,优化零部件库存管理,减少重复维修。车队报告显示,预测性维护每辆车年节省高达2500美元,显著提升运营效率和服务可靠性。
全球气候危机加剧之际,人工智能技术呈现双面性特征。一方面,AI可通过智能电网减少20%能源浪费,精准农业技术优化水资源利用,智能交通系统降低30%城市排放。另一方面,训练单个大型AI模型耗电数千兆瓦时,排放数百吨二氧化碳。数据中心用电量预计2024-2030年年增15%,远超其他行业增速。解决这一矛盾需要优先开发高效AI架构,建立环境影响评估机制,确保AI发展服务于气候目标而非加剧环境负担。
人工智能正在全面改变互联网,从ChatGPT的火爆到谷歌在搜索结果中嵌入AI摘要。本文整理了53个重要的AI术语,涵盖从基础概念到前沿技术的完整词汇表。包括人工通用智能、大语言模型、神经网络、机器学习等关键概念,以及ChatGPT、Gemini、Claude等主流AI产品介绍,帮助读者深入理解AI技术生态。
部分ChatGPT订阅用户发现工具列表中出现名为"Study Together"的新功能。该模式旨在提升教育工具效果,不直接提供答案而是引导用户思考并回答问题,类似谷歌LearnLM。用户猜测可能支持多人学习小组模式。ChatGPT在教育领域应用广泛但存在争议,教师用于制定教学计划,学生可当作辅导工具但也可能用于作弊。这一功能或许能鼓励正当使用同时减少学术不端行为。
杜克大学研究团队开发了MOG-DFM技术,这是首个能够同时优化生物分子多种特性的AI系统。该方法成功解决了传统药物设计中"顾此失彼"的难题,能够设计出既安全又有效的治疗性分子。实验证明,MOG-DFM在肽类药物和DNA序列设计中都表现优异,有望显著加速药物发现进程并推动个性化医疗发展。
印度理工学院团队开发REFINE-AF框架,让小型AI模型通过强化学习自动生成训练指令,无需大量人工标注。该方法在119项测试任务中,63-66%的表现超越传统方法,证明了小模型也能通过巧妙设计获得优异效果,为降低AI训练成本提供了新思路。
港中文团队发布首个AI网站生成能力基准测试WebGen-Bench,评估结果显示即使最强模型准确率仅27.8%,但通过专门训练的WebGen-LM-32B模型达到38.2%,为AI建站技术发展提供重要参考。
斯特拉斯堡大学团队提出POLAR方法,创新性地将多视角点云配准问题转移到自编码器潜在空间中求解。该方法专门设计了处理各向异性噪声、遮挡和外点的损失函数,并采用多起点优化策略实现全局收敛。在合成和真实数据上的实验表明,POLAR在处理严重退化数据时显著优于现有方法,特别在SMLM显微镜数据上表现出色,为生物医学成像等领域提供了重要技术突破。
该研究首次通过实验揭示了人类在战略博弈中如何对待大语言模型(LLM)对手。爱丁堡大学研究者发现,在p-美丽竞赛游戏中,人类面对LLM对手时会选择显著较低的数字,特别是增加了选择"零"的频率。高战略推理能力的参与者更倾向于这种行为转变,他们期望LLM能够理性推理至均衡,甚至具有合作倾向。这些发现对未来人机混合环境的机制设计具有重要启示,揭示了战略互动中人类对AI的特殊期望。
这篇研究来自丹麦奥尔堡大学的团队,探讨了大语言模型的推理过程如何影响事实准确性。研究者通过从高级推理模型中提取思考轨迹,并用知识图谱增强这些轨迹,然后对不同规模的模型进行微调并在六个数据集上测试。结果表明,对小型模型而言,长推理过程显著提高事实准确性;而增加测试时计算资源(如并行采样或增加令牌预算)可使准确率提高2-8%。研究发现约2K令牌长度的推理效果最佳,为提升大语言模型事实准确性提供了新思路。