中国上海,2020年2月12日——全球领先的银行系统制造商Temenos(SIX:TEMN)和Google Cloud近日宣布达成全球战略合作伙伴关系,共同助力金融服务机构在Google Cloud上运行关键任务型银行软件和应用程序,建立可盈利的业务模型,为大幅提升客户体验保驾护航。
Temenos携手Google Cloud一同在云端提供市场领先的金融服务产品,以提升可扩展性、运营效率,加速上市时间,促进创新。此外,Temenos将在Google Cloud上提供其完整的端到端软件产品套件(包括分支银行、数字和核心银行业务解决方案)。
两家公司的合作始于2019年,通过将Temenos软件集成到Google Cloud中,双方合作初显成效,Temenos与Google Cloud共同收获了一批来自欧洲和亚洲银行客户。随着合作的不断深化,在Google Cloud中已经可以运行Temenos的全套银行软件和应用程序。未来,两家公司也将源源不断地开辟新的商业模式,继续助力银行更快地进入市场,帮助客户实现切实的商业盈利。
目前,全球超过3000家金融服务机构都在使用Temenos的现代、云原生、API优先技术。作为此战略合作伙伴关系的一部分,银行可以利用Temenos的可扩展性、强大弹性和全球基础架构在Google Cloud中运行其应用程序。两家公司在2020年巴黎金融科技论坛(Paris Fintech Forum 2020)上宣布其深化的合作伙伴关系。
基于其开放的云端解决方案,以及在混合云多云环境中交付的强大能力,Temenos将成为全球首家在Google Cloud Anthos上运行的银行软件供应商,这对于帮助客户在本地、云上、甚至跨云交付批量关键任务工作而言至关重要。
Anthos是Google Cloud的混合云多云应用程序平台,机构用户可以在此平台上进行应用程序的迁移和现代化升级,搭建新应用程序,支持在云上、本地或多云环境中运行。Anthos以Google的开源技术(例如Kubernetes、Istio、Containers等)为基础,可以协助银行助力其开发人员、安全专业人员、平台团队和运营工程师,增强提升员工和客户体验、节省成本并增加收入的能力。
“业内入驻云端的银行数量呈现出爆炸式增长,我们很高兴能够扩展我们在云方面的领导地位,也很荣幸能深化与云计算创新领域的领导者Google Cloud的战略合作伙伴关系。作为Google Cloud的全球战略性银行软件合作伙伴,我们会在市场中推出创新解决方案,而这种解决方案将是Temenos API优先技术、基于云原生与微服务的银行软件与Google Cloud的可扩展的、领先的云功能相结合的最优产物。” Temenos首席执行官Max Chuard表示, “通过成功将Temenos功能丰富、技术先进的数字银行平台与Google Cloud结合,我们的客户将从中受益良多。我们将共同助力银行缩短上市时间,简化运营流程,实现灵活扩展并提供出色的数字客户体验。借助Google Cloud Anthos,我们使银行可以自由创新,并享受多云平台带来的真正好处。”
Google Cloud首席执行官Thomas Kurian表示:“Temenos已为全球数千家领先金融服务机构提供了市场领先的银行软件应用程序,而我们很高兴与他们继续加深战略性合作。将Temenos的核心功能扩展到Google Cloud上可以帮助银行以数字化的方式变革其业务模式,并提供全新的客户体验和产品。”
Temenos始终处于软件创新的最前沿,坚持将其收入的20%用于研发,并且在过去十年中一直处于云端银行领域的领先地位。Temenos专注于加速银行的数字化转型、帮助他们变得更加敏捷,并更快地进行创新。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。