AutoML是当今人工智能界最受瞩目的核心技术之一,被视为改变人工智能发展的核子武器。这项技术的核心价值在于将复杂繁琐的模型设计过程简化并自动化,智能地体现数据的价值,提高企业的生产力和竞争力。目前市场中大多数AutoML平台产品仍以面向数据科学家等专业建模人员为主,将模型训练中的各种环节自动化,以提升建模效率,而在企业中的部署和应用过程中仍需较高的人工智能的技术能力及人力,对数据科学家与专业AI团队的依赖度较高,导致AutoML技术在企业中的实际使用门槛依然较高。
昨日,探智立方发布了一站式全自动机器学习平台DarwinML 2.0升级,在为企业带来全流程自动化的建模能力的同时,显著提升了AutoML技术在企业中应用和部署的易用性,让普通业务人员也可以参与AI开发,帮助更多企业实现人工智能带来的的商业价值,引领企业AI赋能。
在业内备受关注的DarwinML平台是探智立方自主研发的以演化算法技术为基础的AI赋能平台,它能够针对客户导入的数据,自动生成符合业务场景的最优化人工智能模型,并根据业务实时反馈自我演化和迭代,做出更为精准的模型设计,在大幅节约数据科学家建模时间的同时,让缺乏人工智能专业人才的企业也能设计出满足业务场景的人工智能模型,真正实现了企业应用AutoML技术的全流程自动化和定制化。
升级后的DarwinML 2.0版本,为企业AI技术的落地提供了的更加高效的解决方案——把数据预处理、模型全自动化设计,模型优化全部自动化。DarwinML 2.0中提供了更加丰富的自动特征提取,分析及生成功能、以及自动数据扩增功能,帮助企业AI建模人员和业务人员在企业的数据湖中抽取有效的数据,并把不同系统的数据自动化整理为可以直接入模的数据,降低了使用人员对数据准备和数据分析的复杂难度。同时,DarwinML 2.0优化了流式推理引擎,自动发布设计模型到生成系统,并根据生产系统的反馈,优化模型,优化数据标签;在提供高吞吐低延迟的基础上,还能够零活的对接企业的应用,方便提供“推”,“拉”不同方式的接口与企业对接,实现一键发布,一键上线。
同时,探智立方还公布了DarwinML基于实际应用案例——金融信贷业务场景的运行结果。对于消费金融机构来说,拒绝推断是一个长期存在的课题,风控、获客、盈利能力之间的关系难以平衡;风控越严格,不良率越低,获客成本越高,反之风控越弱,不良率越高,获客成本越低,坏账率越高。通过试用DarwinML 2.0的Beta版本中的拒绝推断功能,探智立方的企业用户在实际测试中指出,DarwinML 2.0中自动拒绝推断功能重新更正其未放贷用户的标签后,在风险降低1个百分点的同时,单月放款用户比例提高了11%。极大提升了企业自身的盈利能力。
受这次疫情的影响,消费金融业务也面临着这一突发情况所带来的逾期率剧增的冲击,多家消费金融公司也及时响应,提出了推迟还款期、减免逾期利息等政策。而如何正确区分出恶意逾期和复工延迟导致的逾期,并对后者能够做到合理的缓交免息支持,手工建立这样一个模型往往需要数周,并且需要业务人员和建模团队的深度配合。针对这一问题,探智立方的团队对消费金融企业用户提供全力支持,基于Darwin 2.0平台,仅依托于企业用户现有数据在一周之内完成了模型的设计、训练和应用,在体现消费金融机构践行社会责任的同时,也有效减缓消费金融机构不良率的上升。
DarwinML产品总监宋煜表示:“从1.0到2.0的版本升级,DarwinML最大的演进就是从‘易于构建’发展到‘易于构建,易于扩展,和易于应用’,从解决企业用户业务增长的角度出发提升易用性,赋能给企业的普通开发人员,使其能够深度的结合公司业务并快速做出他们想要的模型。”据悉,探智立方已在官网开启新版本的试用申请,企业及开发者可直接在探智立方官网申请试用。
探智立方是全球领先的AI技术和解决方案提供者,基于自主研发的DarwinML平台为AI在各行业的应⽤赋能,为企业客户提供一站式、全自动的模型⽣成和部署能力。作为企业AI赋能平台,DarwinML以先进的演化算法及强大技术作为支撑,从根本上协助企业将人工智能⾼效构建到业务应用和决策中,在降低AI门槛的同时,加速实现企业的智能化升级和转型。未来,探智立方还将加大研发力度,基于核心算法引擎持续优化提升模型设计的效率和模型的性能,进一步提升DarwinML的易用性与企业实际需求的结合度,普惠各行各业。
好文章,需要你的鼓励
本文探讨了一种防范通用人工智能(AGI)和人工超级智能(ASI)存在性风险的方法:将它们置于计算机仿真世界中进行测试。虽然这种方法看似合理,但存在诸多挑战。AGI可能会隐藏恶意行为,或因被欺骗而转向恶意。此外,仿真环境可能无法完全模拟真实世界,导致测试结果不准确。构建高质量仿真系统的成本和技术难度也不容忽视。文章认为,仿真测试虽有价值,但并非万能解决方案。
这项研究关注语音中的句子强调(即说话时对特定词的重音),它能传达说话者的潜在意图。耶路撒冷希伯来大学的研究团队发现,尽管现代语音语言模型进步显著,它们在理解句子强调方面表现不佳。团队创建了StressTest基准测试和Stress-17k合成数据集,并开发了StresSLM模型,使强调理解能力大幅提升。研究表明,通过特定训练策略,可以让AI不仅理解"说了什么",还能理解"怎么说的",从而捕捉人类交流中的微妙含义。
尽管AI在围棋等复杂游戏中表现出色,但在简单的井字棋游戏中却屡屡失败。研究显示,AI代理在模拟商业环境中的表现同样令人失望,经常出现幻觉、欺骗和任务未完成等问题。游戏测试为评估AI能力提供了直观方式,帮助普通用户理解AI的真实水平。面对当前AI行业的过度宣传,通过游戏化测试揭示AI的实际局限性,对于防范AI泡沫具有重要意义。
ViStoryBench是一个全面的故事可视化评估基准,由StepFun团队打造,用于测试AI将文字故事转化为连贯图像序列的能力。它包含80个多样化故事和344个角色参考,评估包括角色一致性、提示遵循度等多个维度。研究测试了20多种方法,发现UNO在开源方法中表现最佳,而商业软件如豆包和GPT-4o在提示一致性方面表现突出。该基准为故事可视化研究提供了统一标准,推动这一领域的创新发展。