随着“新基建”热潮来袭,作为核心要素之一的工业互联网也迎来了高光时刻。在技术细节方面,工业互联网覆盖了物联网、云计算、大数据、AI、5G等几乎所有前沿技术,是技术创新的“融合体”;从技术定位来看,工业互联网是打造智能工厂、实现智能生产的重要平台基础;在应用价值方面,工业互联网则贯通和连接了从设计、供应链、制造、营销到服务的整个产品生命周期,可以帮助企业增强韧性、实现降本增效。
如果拆解开来,工业互联网覆盖了OT层、CT层以及IT层,其中,OT层负责数据的采集和动作执行,CT层负责数据的传输,IT层则负责数据的处理、运算和分析, 如此一来,构建工业互联网的最终指向目标,是要塑造一个统一管理的、可视化、自动化的智能工厂。
下面来看几个具体的场景。比如,在生产制造环节,基于工业互联网可以对整个生产流程的进度和效果进行把控,对人员、物料、设备等进行统一的管理和调配;在产品质量管控方面,通过对产品数据、生产过程数据的分析,可以及时监测产品异常、降低次品率;在设备维护方面,工业互联网可以实时分析设备数据、监控设备状态,并结合历史数据进行预测性维护。
除了让生产现场的情况变得“一目了然”,横向延伸至供应链端,工业互联网还可以帮助企业实现对上游物料以及下游库存情况的追踪,以便灵活和弹性应对市场变化,同时,降低库存费用。而纵向延伸至决策管理层,工业互联网还可以帮助决策者掌握每一个业务环节的信息,有效支持企业智能决策。
总结来说,工业互联网的作用,就是通过对人机料法的管理与协同,实现事前的预测、事中的监测和事后的追踪,从而优化每一个业务环节,提高生产质量和效率,降低生产成本。
而在这个过程中,数据是流淌于其中的创新“血液”,物联网、云计算等网络基础是数据传输的“脉络”,而这些,都是保障互联网工业平台活力和可靠性的核心要素。如果再“搭配”人工智能这个“大脑”,互联网工业平台还可以变得更“聪明”,理想状态下,甚至可以实现自感知、自学习、自执行——而这,就是智能制造的最高境界。
从目前来看,中国制造企业的转型与创新已经来到了一个新阶段,而究竟如何利用好大数据、人工智能、云计算、物联网等技术搭建好一个互联网平台,构建一个适合自身发展路径的智能工厂,实现全方位的智能制造,这些,逐渐成为摆在企业面前的一个重要任务。
为此,IBM锁定智能生产、智能检测、智能预测性维护三大场景,将在9月倾献最新「科技为擎,AI点亮智能制造」专题系列研讨会,以科技为擎、AI为机,与企业一起从实际案例出发,共探行业创新之道。今年夏末这把“创新之火”,将由IBM与大家一起引燃!
一大波活动预告火热来袭——
探讨智能工厂执行核心系统如何管控生产过程,准确预测估算,缩短计划周期,助力企业实现智能生产;
呈现IBM优秀“质检员”如何帮助制造企业快速提升检测监控质量与效率,实现降本增效;
介绍IBM Maximo如何帮助企业预防资产宕机,着重甄别对运营至关重要的高风险设备,确保实现必要的可视性和集成性,让资产维护更上一层楼。
还等什么,点击链接立即加入吧!!!http://www.zhiding.cn/special/IBM_2020_LTV
好文章,需要你的鼓励
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。
新加坡科技设计大学和字节跳动研究团队提出了"语音反向翻译"方法,解决语音识别中的数据稀缺问题。研究表明,仅用几十小时的标注语音数据就能训练TTS模型生成数万小时高质量合成语音,将数据扩充数百倍。他们引入归一化可理解度指标评估合成语音质量,确定了合成数据能有效增强ASR性能的质量阈值。将方法扩展到十种语言,生成了50万小时合成语音,对Whisper-large-v3模型进行预训练,平均降低错误率30%,对低资源语言尤其有效,错误率降低46%。
WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。