第七届中国国际进口博览会(进博会)期间,西门子 Xcelerator API World正式对外发布。
通过API World构建的新型数字化软件集成架构,开放式数字商业平台西门子Xcelerator能够高效赋能开发者,简化数字化联合解决方案开发流程,并将其业务能力及服务以API产品形态进行上架展示及在线交易,以灵活开放的方式推动数字化服务商业模式落地,加速企业数字化转型。
同时,西门子与AI大模型初创公司北京智谱华章科技有限公司(简称“智谱”)联合宣布智谱GLM大模型算法服务上线西门子Xcelerator API World。该模型服务可提供长文本智能对话问答ChatGLM、文生图CogView等多个API接口,允许开发者将其轻松融入各类应用。对智谱而言,其先进的人工智能技术能够更好地工业场景中落地,从而扩大市场潜力。
对API World来说,引入智谱大语言模型意味着更开放的生态体系,共同为本地中小企业提供更优质、高性价比的数字化解决方案。双方合作可赋能更多中小企业提升智能化水平。比如,工业智能服务解决方案提供商安徽交泰智能技术有限公司通过调用API World上的智谱大模型服务接口,可高效开发出人工智能技术加持的数字化解决方案,在配电柜巡检等场景中可实现精确的状态识别和无纸化巡检记录等应用。
“今天,随着新型数字化软件集成架构西门子Xcelerator API World的全面开放,西门子Xcelerator平台在生态开放、生态赋能、生态创新方面又迈出了坚实的一步。” 西门子 Xcelerator中国区总经理秦成表示,“通过API World,任何开发者都能轻松集成所需模块,体验打造数字化解决方案的便捷,如同搭积木一般简单。我们期待未来能与更多本土‘繁星计划’生态伙伴一起共创API World上的应用服务,让数字化转型更简单、更便捷、更易规模化。”
相较于传统的单体架构类解决方案套件,西门子Xcelerator API World为推动数字化转型提供了全新模式,具备以下四大特征:
• 灵活性:API World集成了多种业务功能模块,便于复用或快速集成。通过提供来自西门子与合作伙伴的各类模块化的核心应用服务,企业开发者可以灵活、快速的方式集成和部署数字化解决方案并上架西门子Xcelerator平台,其创新成果可以触达更多有数字化转型需求的企业。
• 开放性:API World的接口定义允许第三方应用程序对接。API World在公测阶段已上架近50个API服务,超300个接口,覆盖汽车、电子与电气、食品与饮料等多个行业的数字化应用场景,其中来自第三方合作伙伴的API服务占比接近一半。
• 服务性:通过微服务的商业模式,API World提供按需的调用服务。与传统的工程类数字化打包产品相比,API服务按次收费,性价比和操作便捷性显著提升。这一方式不仅大幅降低了中小企业的数字化门槛,还增强了企业转型意愿。
• 可互操作性:API World支持与其他产品或系统协同使用。通过标准的API平台实现互相间无缝集成,其可大幅缩短西门子及其合作伙伴打造数字化联合解决方案的时间,从传统的3 - 6个月压缩到数周,显著加快企业数字化进程。
西门子已连续三年在进博会期间发布关于西门子Xcelerator的里程碑事件:2022年,西门子Xcelerator首次在中国发布;2023年,西门子Xcelerator生态合作伙伴“繁星计划”正式启动;今年进博会期间,西门子Xcelerator API World正式面向市场发布。
基于进博会的溢出效应,西门子Xcelerator已取得诸多进展:目前合作伙伴数量已突破110家,覆盖机器人与自动化、软件类、AI产业应用与知识教育四大领域,上线了30多款联合解决方案,平台累计注册用户超33万。未来,西门子将继续打造更强生态,以创新驱动产业的高质量发展。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。