作者: Chris McClean,埃维诺全球数字化道德主管
过去几年,埃维诺一直致力于发展数字化道德能力和制定相关指导原则,并将这一道德框架嵌入到技术开发和应用中。基于长久以来的经验,以下是埃维诺对2020年数字化道德发展的前沿预测:
随着企业越来越无法保障生物特征数据和智能家居数据安全问题,个人信息泄露事件无疑会频发。预计到2020年,企业违反数字化道德将带来更大的个人伤害以及商业损失,其带来的后果与侵犯安全或隐私相当。这类可能发生的事件包括侵入式定向投放、未经授权的数据收集、卫生保健或金融服务领域的种族歧视或其他偏见,或刑事司法中的系统性错误,由此可能导致员工忠诚度下降(例如Facebook跌出最佳工作场所名单前十)抑或客户忠诚度下降(例如Uber一系列道德问题后被Lyft夺走市场份额)。
人们已经逐渐意识到网上虚假内容的危害,然而,越来越逼真的深度伪造技术则进一步威胁着个人、政府和企业。牛津大学的一项研究发现,70个以上国家的公民正深受虚假信息所害 ,其中很多虚假信息还是由地方政府或竞争对手政府所造成的。
一系列遏制虚假信息的行动正在进展中,包括Facebook近期承诺屏蔽故意误导的深度伪造技术,美国加州去年出台法律要求任何用作商业或政治用途的聊天机器人必须表明自己的机器人身份,还有新加坡最新出台的打击“假新闻”法。尽管很难评价这些举措本身是否存在一定问题,但随着深度伪造技术软件变得更加简易,我们预计今年虚假信息将带来更多毁坏性的损害。
世界各地科技行业员工目前在抗议诸多问题上已有建树,具体包括健康和安全问题、工作场所性骚扰问题、环境政策问题,以及与执法部门和军方的合作问题。同时,科技行业之外,近期发生的逃税、操纵政治、虚假健康检测以及可能的政府勾结等引人注目的案件,已经让普通公众了解到了“吹哨”的威力。随着未来两年欧洲将陆续推出新的“吹哨人”保护措施,以及美国可能对其相应制度进行更新,科技行业之外产业的员工有望在2020年站出来揭露自己所在公司违反数字化道德的境况。
高度宣扬数字化道德努力越来越被稀释,或者预期数字化道德正处于过高期望的峰值期都是令人比较沮丧的。但由于企业高管和决策者仍将其视为获得成功的基础,数字化道德有望在2020年从老生常谈的话题转变为脚踏实地的实践。具体来说,数字化道德有望开始出现在更广泛机构的IT标准中,如国际标准化组织(ISO)、国际信息系统审计协会(ISACA)、英国标准协会(BSI)等机构,希望电气和电子工程协会IEEE也能嵌入数字化道德框架; 开始在简历和领英技能标签中出现; 最重要的是开始在媒体上以案例和最佳实践的形式出现。需要重点关注的是,数字化道德如何在零售、医疗保健、金融服务和制造企业等科技行业以外领域展开实践,这些行业最终都将受益于对科技的信任。
针对日益加剧的全球科技不平等现象,以价值为导向的公司难以取得较大胜利。
科技行业经常谈论要促进多样性和包容性,然而近期的项目和投资仍未显示现在有多大进展。或许更大的(而且更相关的)问题不在于科技厂商是否缺乏多样性和包容性,而在于科技行业的受益人是否具备包容性和多样性。联合国近期的一份报告指出,技术进步和气候变化是造成全球不平等的主要因素,建立“更公平的经济体”以对抗日益加剧的财富不平等因此成为今年达沃斯世界经济论坛的一个重要主题。尽管在数字化和人工智能道德规范中,科技应该促进包容性增长的措辞十分明确,但人们对技术和利益集中的担忧是可以理解的。2020年的研究也继续表明,这个问题还在升级。期望一些大企业能够扭转态势。
任何科技发展都有它的伦理含义。隐私保护和道德化的人工智能话题正得到大量关注,但我们应该考虑到每一个科技产品和项目潜在可能引起的道德影响,包括对人(如隐私性、可访问性、包容性、精神/身体健康)的影响、对社会(如政治、教育、劳动力、经济和执法)的影响和对环境(如能源、材料、污染和浪费)的影响。
好文章,需要你的鼓励
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。
这项研究揭示了大型语言模型(LLMs)偏好决策的内在机制。以色列理工学院和IBM研究院的团队开发了一种自动化方法,不需人工预设即可发现和解释影响AI判断的关键概念。研究横跨八个领域(从一般问答到安全评估),分析了12种偏好机制,发现人类评判者重视权威性和清晰度,而AI评判更关注事实准确性。他们提出的层次多领域回归模型不仅能准确预测偏好,还能清晰解释判断过程,为构建更透明、更符合人类价值观的AI系统提供了新途径。