12月15日,由紫光旗下新华三集团和全国高等院校计算机基础教育研究会联合主办、新华三大学和浙江经贸职业技术学院承办的第九届“新华三杯”全国大学生数字技术大赛,经过两天的激烈比拼之后,角逐出了最终胜者。来自山东科技大学的朱凯旋同学和枣庄科技职业学院的杨童同学分别荣膺本届大赛本科组与职业组特等奖。另外,大赛共诞生20位一等奖、40位二等奖和60位三等奖参赛选手,并颁出了优秀指导老师奖。本次大赛旨在推动学生、院校、企业三方互动,“以赛促学习、以赛促教学、以赛促就业”,积极探索高科技技术人才培养思路,丰富多元化人才培养体系,建立良性的就业生态圈。
新华三集团副总裁、新华三大学执行校长李涛为特等奖颁奖
新华三大学副校长刘小兵为优秀指导教师代表颁奖
新华三大学副校长孙明蓝和汤徽为本科组一等奖颁奖
新华三大学副校长洪静与张涛为职业组一等奖颁奖
2019年“新华三杯”大赛紧扣行业前沿技术热点,兼顾理论科研与实践应用,为大学生数字化技术理论和实践技能的交流与进步提供了难得的渠道和平台。自今年10月开赛以来,本届大赛共有来自29个省市自治区的520所院校、16500位选手报名参赛,其中有200余名同学经过激烈的比拼,脱颖而出晋级决赛。如今,连续举办九届的“新华三杯”已成为我国高校科技教育的典范,通过不断深化校企合作共育、扩大比赛规模、提高比赛质量, “新华三杯”大赛不仅成为大学生交流与提升数字化技术理论和实践技能的竞赛平台,更成为了院校、企业与学生三方人才供需对接的优质平台。
本科组赛事现场
职业组赛事现场
数字经济发展进入到以生产为导向的阶段,数字化人才培养正从学科导向转变为产业需求导向,从专业分割转向跨界交叉融合,人才培养的目标亦从服务数字经济转变为支撑引领数字经济发展,这对数字化人才的培养提出了新的挑战。新华三集团副总裁,新华三大学执行校长李涛在致辞中表示,“新华三杯”逐渐壮大的规模,各院校、师生、企业的支持与信任,都时刻提醒着我们身为数字化解决方案领导者所肩负的使命。协助人才向数字化复合型人才转型,助力企业向数字化企业转型,从而推动整个社会向数字共生生态转型,是新华三大学的责任和努力方向,也是“新华三杯”赛事不断向前的动力。
新华三集团副总裁、新华三大学执行校长李涛为闭幕式致辞
依托新华三集团雄厚的技术创新实力以及三十余年行业实践的深厚积淀,新华三大学建立起了企业数字化人才培养与校企合作的完整体系, 特别是在产教融合方面,新华三集团致力于打造产、学、研、工、创一体化的校企深度合作模式,以地方经济发展、行业发展和企业需求为导向,建立人才培养、科研创新、社会服务的新思维和新模式。2019年,新华三大学加大了在资金、技术、设备、专家、师资、平台开发等方面的投入,总投资超过1亿元,并且在教育项目合作、国际化、新数字技术产教融合、新数字技术认证方面成绩卓著。深入推进校企合作与产教融合,为产业界培养与输送最优质的科技新军,正是”新华三杯“的初心所在。未来,新华三大学将继续以成为中国数字化解决方案领域卓越的创新大学为愿景,坚持推动学校育人与企业用人的协同发展,培养杰出的数字化产业人才,为各行各业的数字化转型源源不断地输送人才支持,助力数字中国的建设发展。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。