日前,天曦网络科技(北京)有限公司(以下简称天曦科技)与微软在北京签署了战略合作协议,宣布双方将展开全面的合作,发挥各自优势,通过云计算、大数据、物联网、人工智能等技术推动中国传统工业制造企业的数字化转型,实现多赢的目的。
事实上,这已经不是双方的第一次合作了。此前天曦科技大通互惠所推出的智能制造阀门解决方案中,就是通过微软的混合现实技术(MR)进行设计和展现。
微软的变化
只要仔细观察,我们就会发现,依靠闭源软件起家并且闭源理念根深蒂固的微软,这两年来的对外合作开始变得接连不断。如Office在苹果iOS平台上架;与亚马逊合作推出一套开放神经网络交换格式(Open Neural Network Exchange)等等。
这与萨提亚执掌微软3年多来的转型战略有着莫大的关系。自上任之后,萨提亚就提出了“云为先”和“移动为先”。从目前来看,这两大战略已经获得了部分成功。据微软中国大中华区副总裁、企业服务部总经理冯国华在会上介绍,从战略的提出到落地,微软的市值已经从2000亿美金提升到了6700亿美金。
而随后,微软又提出了“AI为先”的战略,并在今年的Ignite上发布了Azure机器学习实验服务、Azure机器学习工作台和Azure机器学习模型管理服务等产品,秀了秀它的“AI肌肉”。
冯国华表示,为了落地这三大战略,微软还提出了四个主张方向,“即让客户的客户成为客户;让员工更具生产力;让运营效率更高;利用最前沿的科技让产品和服务得以转型。”
总而言之,我们发现,微软又是那个非常前沿,并且值得追随的科技公司了。
天曦科技的决心
对此,天曦科技董事长夏靖表示:“微软不但具有非常前沿的科研技术和平台服务,更重要的是,它能够通过云计算、移动应用、人工智能等技术,赋能于各行各业。”“过去,很多人认为微软就是一个产品,但是现在,我们看到微软实际上是一个致力于人类美好生活的企业。这也是促成天曦科技和微软合作的非常重要的原因。”他说。
据他介绍,接下来天曦科技与微软将先从制造业着手,在中国智能制造领域建立长期、全面的战略合作关系,由微软全力支持天曦科技的数字化平台建设。
“我们接下来的重点是把包括数据库、区块链、芯片、人工智能等在内的技术工作做扎实,并通过技术创新来服务于中国的实体经济,推动中国各行各业的的发展和创新。”夏靖指出。
天曦科技看上了微软在技术研究方面的前沿与权威,而微软看上的正是天曦科技这种扎根垂直行业的决心。
“微软虽然有着全球领先的技术和平台,但是我们也意识到,如果不结合垂直行业,不愿意着手去创新并开放合作,是很难真正为客户创造价值的。” 冯国华如是说。
这仅仅是一个开始
据介绍,天曦科技的智能制造整体解决方案提供了包括CRM、智能设计平台、ERP、智能仓库、智能生产平台、智能预测运维平台等在内的全套产品和服务,覆盖了制造业产品生命周期从订单提交、产品设计、原材料采购、供应商、物流、仓库管理、生产制造、售后服务的各个阶段。
此外,基于微软提供的云计算、大数据和人工智能等技术,通过嵌入智能基因的方式,天曦科技将AI与机器人结合起来,赋予了机器人“视觉“、“触觉”、自学习和自决策的能力,从而助力企业降低生产成本,提高企业的市场竞争力。
天曦科技智能制造目前在中国已有成功案例,以大通互惠集团为例,借助于天曦科技的解决方案,不仅提升了其运营效率,降低了产品生产成本,还使其各个生产及经营环节进入智能化,为中国企业实现“中国制造2025”的目标提供了巨大的助力。大通互惠集团蔡天志董事长在活动中表示,大通互惠高度重视技术创新,利用天曦科技智能制造整体解决方案,有效提高企业信息化、智能化水平,在新一轮科技变革中抢占先机,赢得主动,实现升级发展。
而在基础架构层面,为了更好地满足企业需求,天曦数据库选择了开源数据库PostgreSQL来研发自身的产品,具备企业级、大型通用关系数据库管理特征,能够提供高效完备的数据库管理功能,支持多种数据访问接口,具有海量数据管理和大规模并发处理能力,系统功能完善、性能稳定,可广泛应用于各类企事业单位、政府机关的信息化建设。
当然,冯国华也明确表示,双方此次合作交付的并不仅仅是一个产品或是一个项目,而是战略性的全面合作。未来双方将紧密合作,为支持并落实推动国家“一带一路”及“中国制造2025”战略,支持及推动各相关产业的数字化转型做出贡献。
为此,未来天曦科技还将成立北京工业云计算中心、大数据、人工智能实验室,基于微软的前沿技术,打造含物联网、大数据、人工智能和云计算等技术的新一代工业4.0解决方案平台,从而为更多传统工业客户提供更加全面的解决方案和服务。
“这只是一个开始,接下来我们还将借助微软的技术,站在它的肩膀上,服务于中国的农业科技、金融科技,不断完善天曦科技的产业布局,服务于中国经济和社会的发展。”夏靖说。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。