近十年来随着工业化的转型,越来越多的行业开始进入或者即将完成各自的数字化转型,从汽车工业到电子工业,从新能源行业到半导体行业,从尖端到普及,从普及到日常。可以说,随着国家将数字化的建设需求贯彻到各行各业,我们的生活也逐渐走入一个新时期。而对于新材料的研发领域,数字化无疑是这一阶段最为重要的建设需求,其中研发的数字化更是行业高质量发展的重中之重。
初心
曹荣根博士,自2014年起,就开始意识到要创造出一条属于中国人自己的新材料之路,其数字化平台的建设是不可或缺的,他所创立的鸿之微科技(上海)股份有限公司经过多年耕耘与发展,目前已经成为国内具有代表性的为材料产业提供数字化研发平台的企业。
选择这样一条道路并非偶然,早在十多年前国家开始大力发展集成电路产业之时,博士毕业于复旦大学材料物理与化学专业的曹荣根深感随着集成电路产业的发展,其对先进制程仿真软件的依赖日益加强,于是率领团队开始集成电路的原子级器件和工艺流程仿真工具的研发。而随着工作的深入,他逐渐觉察到,无论是集成电路或是其他新材料行业,都无法回避对于多尺度仿真软件的需求,而当时这些软件均被国外行业巨头所牢牢把持,“卡脖子”式的发展必定无法满足中国新材料行业高速发展的需求。为了能够让自身数字化平台真正实现生态化,为更多新材料产业客户服务,真正做到多尺度的高效仿真,曹荣根博士及其团队在研发之初,就走上了一条看似不那么“聪明”的道路:真正从底层数字化工具开始研发,逐渐丰富工具,最终搭建起多尺度的数字化平台,这样艰辛的研发之路并非一日之功,而是真正需要长期的耕耘与坚守。
挑战
在这样一条耕耘之路上,他也曾遇到过很多挫折与挑战。无论构建多尺度、跨领域仿真软件的世界性技术难题,还是将学术成果转化为商业产品巨大的鸿沟跨越,或是从科研工作者转变为成熟的企业家管理者的观念转变,其中所面临的挑战,都给他带来过不小的压力。而他并未轻言放弃,直面挑战,探索出了一套极具特色的高效产学研模式,牵头建立了一支数字化科研平台的顶级科学家团队,包含国内外知名院校的学术力量以及来自社会中龙头企业的科研力量,形成战略合作,构建材料研发生态,逐步克服了这一数字化转型过程中所遇到的挑战。
随着数字化平台建设的日趋成熟,鸿之微也在探索综合性能更高、综合成本更优的云计算架构。由此鸿之微展开了与华为云的合作,联合打造计算机辅助材料设计与仿真解决方案,并计划在全球市场进行联合拓展。而华为云的超强计算能力也对曹荣根博士留下了极为深刻的印象。过去新材料数字化平台更多使用国内的超级计算机的计算资源。而经过与华为云的合作,其部署在华为云上的软件通过计算能力测试,发现华为云的计算能力不输国内的超算,并且其有着更多优势,比如为客户实现更多的定制开发优化的技术支持,这种极具性价比的服务为曹荣根博士及其团队所做的数字化转型带来了极大的便利性。而除了华为云本身的优质服务能力,在与其合作的过程中,曹荣根博士也发现华为员工的积极态度与响应速度,也让整个合作过程变得无比顺利。
腾飞
2021年初,曹荣根博士及其团队的研发成果——鸿之微云正式上线。这也让其成为了国内第一个完全自主的材料科研云平台,其包括了软件云、数据云、工具云,又能同时实现云上仿真、计算和数据分析为一体的材料研发数字化的核心价值。目前鸿之微云及其企业产品的服务客户涵盖了国内双一流高校,顶级科研机构以及集成电路、新能源、合金、化工、生物等行业的龙头企业,成为了国内新材料研发数字化领域的“又精又专”的行业代表之一。如今,鸿之微已建立了一支生态圈的首席科学家团队,先后与中科院微电子所、哈尔滨工业大学 (深圳)、广西大学、山东大学、西安交通大学、上海大学、上海师范大学、湘潭大学、北京大学、华东理工大学和材料科学姑苏实验室成立联合研究机构或共同攻关重要研发项目。
而经过多年的奋斗与耕耘,曹荣根博士说,随着公司的快速发展,自己的责任愈加重大,让天下没有难做的材料一直是他的期盼,而他最大的愿景,即是助力中国新材料产业的进一步发展。(来源:人民日报客户端)
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。