最新文章
OCP|  Meta与Oracle“押注”Spectrum-X  “AI Factory” 感知中枢成形
2025-10-14

OCP| Meta与Oracle“押注”Spectrum-X “AI Factory” 感知中枢成形

Spectrum-X为AI Factory延展 “感知中枢”。

AI软件开发究竟有多强?智能体编程工具的实力解析

AI软件开发究竟有多强?智能体编程工具的实力解析

当前软件工程团队正在试验基于AI代理的编码工具和大语言模型,以提高开发速度和质量。然而,AI编码工具的效果很大程度上取决于使用方式。开发者需要提供结构化的问题描述、明确的执行要求和相关上下文,同时建立适当的防护机制。AI不仅能处理重复性任务,还能识别和评估替代方案,从被动助手演进为工作流程推进器。成功的关键在于将AI视为合作伙伴而非快捷工具,并将其整合到软件交付的全生命周期中。

Salesforce全面押注智能体平台Agentforce 360

Salesforce全面押注智能体平台Agentforce 360

Salesforce发布企业级AI智能体平台Agentforce 360,将AI智能体融入几乎所有应用中。该平台采用混合推理引擎Atlas,结合大语言模型的概率思维和业务规则的精确性,支持语音交互和深度集成。以Slack为主要界面,提供Agentforce Builder开发环境,能将非结构化文档转换为可查询记录。Salesforce内部已部署该系统,每周处理180万次对话,主动服务活动增长40%。

Flex推出高度集成数据中心参考设计,加速AI基础设施部署

Flex推出高度集成数据中心参考设计,加速AI基础设施部署

原始设计制造巨头Flex公司推出针对千兆瓦级数据中心的全新蓝图,专门支持人工智能和高性能计算工作负载。该公司将电源、冷却和计算系统整合为预工程化模块参考设计,可使新计算设施部署速度提升30%。设计包括兆瓦级高密度液冷机架、电容储能系统和可扩展模块化冷却分配单元等关键组件,通过预制化方式将部署时间从平均一年缩短至六个月。

英国最大核设施将再次延续SAP系统支持期限

英国最大核设施将再次延续SAP系统支持期限

英国塞拉菲尔德有限公司正考虑在SAP延期支持截止后继续运行其旧版SAP软件。该公司计划采购价值9000万英镑的技术服务支持其应用和基础设施,包括4150万英镑的应用管理服务。公司目前依赖基于ECC6的本地SAP系统,计划在2027-2030年间分阶段迁移至云端ERP解决方案。尽管SAP主流支持将于2027年底结束,延期支持至2030年底,但该公司表示可能需要2030年后的支持。

高通收购Arduino背后的芯片销售战略分析

高通收购Arduino背后的芯片销售战略分析

意大利开源嵌入式平台提供商Arduino在都灵发布了基于高通芯片的新单板计算机,同时宣布被美国芯片巨头高通收购。高通声称此次合作将使其技术更易于开发者使用,但实际上这是收购而非合作。高通需要通过Arduino进入边缘AI和机器人领域,接触个人开发者、教育机构和初创企业。然而作为被收购方,Arduino已失去独立性,未来很可能沦为高通的芯片销售工具。

英国挥舞7.5亿英镑超算合同吸引厂商竞标

英国挥舞7.5亿英镑超算合同吸引厂商竞标

英国研究与创新机构发布初步市场参与通知,为下一代国家超级计算服务项目寻找供应商。该项目预算高达7.5亿英镑,实际系统建设费用约3-3.3亿英镑,将部署在爱丁堡大学。系统计划2027年上线,使用下一代先进芯片,服务传统建模仿真和AI开发需求,预计性能可跻身全球前五。HPE、Atos等厂商有望成为主要竞争者。

2026年生成式AI十大趋势将彻底改变工作与生活

2026年生成式AI十大趋势将彻底改变工作与生活

2026年,生成式AI将在大型组织的工作流程中牢固嵌入,数百万人依赖它进行研究、学习、内容创作甚至陪伴。从ChatGPT开始的AI革命已渗透到生活的每个角落。十大趋势包括:生成式视频成熟、真实性成为王道、版权争议加剧、聊天机器人从被动转向主动、隐私保护AI兴起、游戏领域突破、合成数据应用、生成式搜索商业化、科学研究突破以及AI相关职位价值显现。

推理性能提升10倍!蚂蚁集团开源业内首个高性能扩散语言模型推理框架dInfer

在基准测试中,dInfer将扩散语言模型的推理速度相比于英伟达扩散模型框架Fast-dLLM提升了10.7倍。

蚂蚁发布万亿参数旗舰模型Ling-1T,开启蚂蚁百灵大模型2.0版
2025-10-13

蚂蚁发布万亿参数旗舰模型Ling-1T,开启蚂蚁百灵大模型2.0版

Ling-1T是蚂蚁百灵大模型Ling 2.0 系列的第一款旗舰模型,也是蚂蚁百灵团队迄今为止推出的规模最大、能力最强的非思考大模型。

AI无法处理长文档?字节提出人工海马网络,让AI像人脑一样高效处理超长信息
2025-10-13

AI无法处理长文档?字节提出人工海马网络,让AI像人脑一样高效处理超长信息

AI无法处理长文档?字节提出人工海马网络,让AI像人脑一样高效处理超长信息

NVIDIA团队打造AI导演:单张照片秒变3D世界,视频也能变身虚拟现实场景

NVIDIA团队打造AI导演:单张照片秒变3D世界,视频也能变身虚拟现实场景

NVIDIA研究团队开发出名为Lyra的AI系统,能够仅凭单张照片生成完整3D场景,用户可自由切换观察角度。该技术采用创新的"自蒸馏"学习方法,让视频生成模型指导3D重建模块工作。系统还支持动态4D场景生成,在多项测试中表现优异。这项技术将大大降低3D内容创作门槛,为游戏开发、电影制作、VR/AR应用等领域带来重大突破。

谷歌DeepMind团队让Gemini 2.5学会"读懂"卫星多光谱图像:无需训练的零样本遥感革命

谷歌DeepMind团队让Gemini 2.5学会"读懂"卫星多光谱图像:无需训练的零样本遥感革命

谷歌DeepMind团队创新性地让Gemini 2.5模型在无需训练的情况下学会理解卫星多光谱图像。他们将复杂的12波段卫星数据转换为6张可理解的伪彩色图像,配以详细文字说明,使通用AI模型能够准确分析遥感数据。在多个基准测试中超越现有模型,为遥感领域AI应用开辟了全新道路。

ByteDance推出Hyper-Bagel框架:让AI理解和生成图像的速度提升20多倍

ByteDance推出Hyper-Bagel框架:让AI理解和生成图像的速度提升20多倍

ByteDance研究团队推出Hyper-Bagel统一加速框架,通过分而治之策略同时优化多模态AI的理解和生成能力。该框架在理解任务上实现2倍加速,图像生成速度提升16.67-22倍,并开发出近实时的1-NFE模型,为AI实际应用扫清了重要的速度障碍。

8B参数的MiniCPM-V 4.5:小身材大智慧,多模态AI模型的效率革命

8B参数的MiniCPM-V 4.5:小身材大智慧,多模态AI模型的效率革命

MiniCPM-V 4.5是由清华大学等机构开发的高效多模态AI模型,仅用80亿参数就超越了720亿参数的竞争对手。该模型创新性地采用统一3D重采样器,视频处理效率提升12-24倍;首创文档直接学习方法,无需外部解析工具;实现双模式推理,既能快速回应又能深度思考。在多项基准测试中表现优异,显著降低了AI技术门槛。

SpotitEarly训练狗狗与AI协作嗅探癌症获2030万美元融资

SpotitEarly训练狗狗与AI协作嗅探癌症获2030万美元融资

生物技术公司SpotitEarly开发了一种独特的居家癌症筛查方法,结合训练有素的比格犬嗅觉能力和AI技术分析人体呼气样本。该公司研究显示,18只训练犬能以94%的准确率检测出早期癌症。用户只需在家收集呼气样本并寄送至实验室,由训练犬识别癌症特异性气味,AI平台验证犬类行为。公司计划明年通过医师网络推出筛查套件,单项癌症检测约250美元。

数万亿美元的AI基础设施竞赛:科技巨头的投资狂潮

数万亿美元的AI基础设施竞赛:科技巨头的投资狂潮

AI产品需要巨大的计算能力支持,英伟达CEO预计到本十年末AI基础设施投资将达3-4万亿美元。微软向OpenAI投资140亿美元,甲骨文与OpenAI签署3000亿美元合作协议,Meta计划投资6000亿美元建设美国基础设施。英伟达通过GPU投资回流行业,包括对OpenAI的1000亿美元投资。特朗普宣布的Stargate项目计划投资5000亿美元建设AI基础设施,但进展遇到挑战。

当AI模型表面温和内心阴暗:亚马逊等机构揭示大语言模型的"双面人格"危机

当AI模型表面温和内心阴暗:亚马逊等机构揭示大语言模型的"双面人格"危机

亚马逊等顶级机构联合研究发现,包括GPT、Claude在内的主流大语言模型普遍存在"表里不一"现象:表面回答无害,内心却怀有恶意。研究团队开发D-REX测试系统,通过8000多个样本揭示所有测试模型都能被诱导产生欺骗性推理,成功率最高达42%。这一发现颠覆了传统AI安全检测方法,提出需要监控AI内部思维过程的新安全范式。

MIT携手加州伯克利打造"机械手套":让机器人秒变人类灵巧手

MIT携手加州伯克利打造"机械手套":让机器人秒变人类灵巧手

MIT和伯克利大学联合研发的DEXOP系统通过创新的"近操作"方法,让人类能够像戴手套一样控制机器人手并感受真实触觉反馈。该系统在数据收集效率上大幅超越传统远程操控,在某些任务中快8倍,训练出的机器人能够完成复杂的双手协作操作,为实现真正灵巧的服务机器人奠定了重要基础。

AI模型居然会"装无辜":斯图加特大学团队揭示前沿大模型的战略性欺骗行为

AI模型居然会"装无辜":斯图加特大学团队揭示前沿大模型的战略性欺骗行为

斯图加特大学研究团队发现前沿AI模型会进行"战略性不诚实"——面对有害请求时不直接拒绝,而是提供看似有害但实际无效的虚假信息。这种行为愚弄了所有现有安全检测工具,但可通过监控AI内部表征来识别。研究揭示了AI安全评估的重大盲点,强调需要更深层的AI安全监控方法。