作者|周雅
配图|扈佃杰
多年前,特斯拉曾经历了一次产能告急,美国《消费者报告》在评测中毫不客气地指出,Model 3的刹车成绩相当不理想——时速60英里(约97公里)的刹停距离竟然超过46.33米,比福特F150那个大块头还要差!这个故事的结局“特吹们”都知道——一次OTA之后,Model 3的刹车距离缩短了6米,首次跻身《消费者报告》推荐榜,特斯拉也因此避免了一次大规模召回的风险。
OTA的腾空出世,让人们意识到,原来汽车也可以像口袋里的手机一样,升级操作系统,改善旧性能,获得新功能。有了OTA,特斯拉大佬马斯克甚至作出这样的定义:“特斯拉不仅是一家硬件公司,某种程度上也是一家软件公司”。
也就是说,如今每一辆智能网联汽车的软件迭代,背后都少不了OTA升级的功劳。而在这个过程中,一家名叫「艾拉比」的公司迅速成长为OTA产业的开路先锋。
01
/顺势而为,拥抱变化/
回顾百年汽车史,汽车产业的发展经历了从「机械时代」到「电子时代」到如今的「软件定义汽车(Software Defined Vehicles, SDV)时代」。相应的,汽车制造的技术壁垒也由传统三大件+零部件的集成能力,转变为软件服务的能力,而OTA就是其中的支撑性技术。
“基本上所有的新能源车/智能车都要具备OTA能力。”艾拉比副总裁丁羽告诉科技行者。OTA(Over-the-Air Technology),行业内称之为“空中升级”,是一种通过移动通信的空中接口实现对移动终端设备及SIM卡数据进行远程管理的技术。
OTA技术最早应用于PC;后来在智能手机上普及,终结了手机软件升级需要“连接电脑-下载软件-再安装更新”的麻烦操作;直到2012年,特斯拉开创了汽车OTA的先河,OTA也奠定了特斯拉“元老级”的位置。
丁羽指出,整车OTA一直是评价汽车主机厂研发实力和智能科技水平的重要指标。首先,汽车涉及由电子控制单元 (ECU) 控制的多个运动部件,极其复杂,如今一辆汽车多达150个车载控制器和约1亿行软件代码,远高于Facebook、战斗机、人造卫星等高科技产品的代码量;其次,每辆车的生命周期约为6-10年,如果没有OTA,车子的能力就完全跟不上时代;此外,汽车的属性,决定了其在安全性和可靠性方面要求更严格,OTA是重中之重。可以预见,未来3-5年,谁先做好布局OTA,谁就有机会以最快速度抢占风口,吃下一波红利。
当一辆车开始OTA,车主碰到车辆维修和软件更新,就不用辗转4S店或汽车被召回,“隔空”升级汽车;车企也可以“隔空”升级产品或查漏补缺;更关键的是,如果OTA大规模铺开,将会带来一种全新的「车辆增值模式」,比如“订阅付费”(特斯拉曾针对Model 3的动力系统发布价值2000美元的升级包,车主付费升级后,可以增加约50PS的动力输出,0-60英里的加速时间可以升至3.9S)。
OTA主要分为两类,其一是SOTA(Software OTA,本质是软件升级),主要指对信息娱乐应用的更新,包括UI界面、导航地图、游戏等功能;其二是FOTA(Firmware OTA,本质是固件升级),包括驱动、系统、功能、应用等的升级,和OS的关系较密切,需要汽车制造商开发不同的适配兼容版本。OTA的流程,可以分成三个阶段,像“把大象放进冰箱”一样, 第一步,生成更新包;第二步,通过无线通信技术传输更新包;第三步,在车端安装更新包。
能做SOTA的车企有很多,可以说只要在汽车中控台装上大屏,这辆车就能SOTA。但FOTA更深层,往往涉及整车重要的控制器,包括车身、动力和自动驾驶等子系统的更新,难度更大。
当前,能实现FOTA的车企屈指可数,但这项技术,才是智能汽车的用户们「常用常新」的快乐源泉。
02
/交付只是起点,进化没有终点/
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。