作者|周雅
配图|扈佃杰
多年前,特斯拉曾经历了一次产能告急,美国《消费者报告》在评测中毫不客气地指出,Model 3的刹车成绩相当不理想——时速60英里(约97公里)的刹停距离竟然超过46.33米,比福特F150那个大块头还要差!这个故事的结局“特吹们”都知道——一次OTA之后,Model 3的刹车距离缩短了6米,首次跻身《消费者报告》推荐榜,特斯拉也因此避免了一次大规模召回的风险。
OTA的腾空出世,让人们意识到,原来汽车也可以像口袋里的手机一样,升级操作系统,改善旧性能,获得新功能。有了OTA,特斯拉大佬马斯克甚至作出这样的定义:“特斯拉不仅是一家硬件公司,某种程度上也是一家软件公司”。
也就是说,如今每一辆智能网联汽车的软件迭代,背后都少不了OTA升级的功劳。而在这个过程中,一家名叫「艾拉比」的公司迅速成长为OTA产业的开路先锋。
01
/顺势而为,拥抱变化/
回顾百年汽车史,汽车产业的发展经历了从「机械时代」到「电子时代」到如今的「软件定义汽车(Software Defined Vehicles, SDV)时代」。相应的,汽车制造的技术壁垒也由传统三大件+零部件的集成能力,转变为软件服务的能力,而OTA就是其中的支撑性技术。
“基本上所有的新能源车/智能车都要具备OTA能力。”艾拉比副总裁丁羽告诉科技行者。OTA(Over-the-Air Technology),行业内称之为“空中升级”,是一种通过移动通信的空中接口实现对移动终端设备及SIM卡数据进行远程管理的技术。
OTA技术最早应用于PC;后来在智能手机上普及,终结了手机软件升级需要“连接电脑-下载软件-再安装更新”的麻烦操作;直到2012年,特斯拉开创了汽车OTA的先河,OTA也奠定了特斯拉“元老级”的位置。
丁羽指出,整车OTA一直是评价汽车主机厂研发实力和智能科技水平的重要指标。首先,汽车涉及由电子控制单元 (ECU) 控制的多个运动部件,极其复杂,如今一辆汽车多达150个车载控制器和约1亿行软件代码,远高于Facebook、战斗机、人造卫星等高科技产品的代码量;其次,每辆车的生命周期约为6-10年,如果没有OTA,车子的能力就完全跟不上时代;此外,汽车的属性,决定了其在安全性和可靠性方面要求更严格,OTA是重中之重。可以预见,未来3-5年,谁先做好布局OTA,谁就有机会以最快速度抢占风口,吃下一波红利。
当一辆车开始OTA,车主碰到车辆维修和软件更新,就不用辗转4S店或汽车被召回,“隔空”升级汽车;车企也可以“隔空”升级产品或查漏补缺;更关键的是,如果OTA大规模铺开,将会带来一种全新的「车辆增值模式」,比如“订阅付费”(特斯拉曾针对Model 3的动力系统发布价值2000美元的升级包,车主付费升级后,可以增加约50PS的动力输出,0-60英里的加速时间可以升至3.9S)。
OTA主要分为两类,其一是SOTA(Software OTA,本质是软件升级),主要指对信息娱乐应用的更新,包括UI界面、导航地图、游戏等功能;其二是FOTA(Firmware OTA,本质是固件升级),包括驱动、系统、功能、应用等的升级,和OS的关系较密切,需要汽车制造商开发不同的适配兼容版本。OTA的流程,可以分成三个阶段,像“把大象放进冰箱”一样, 第一步,生成更新包;第二步,通过无线通信技术传输更新包;第三步,在车端安装更新包。
能做SOTA的车企有很多,可以说只要在汽车中控台装上大屏,这辆车就能SOTA。但FOTA更深层,往往涉及整车重要的控制器,包括车身、动力和自动驾驶等子系统的更新,难度更大。
当前,能实现FOTA的车企屈指可数,但这项技术,才是智能汽车的用户们「常用常新」的快乐源泉。
02
/交付只是起点,进化没有终点/
好文章,需要你的鼓励
WhatsApp正式向更多iOS用户推送Liquid Glass界面重设计的第一阶段更新。此前,Meta自去年10月起在小范围内测试该设计,将其应用于底部导航栏及聊天标签页部分元素。目前,多名用户已在社交平台确认收到更新,新界面覆盖底部导航栏、聊天内部分元素及主界面顶部导航栏,但语音消息播放器和消息反应菜单等组件仍沿用旧设计,预计后续将陆续跟进更新。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
OpenAI近日在ChatGPT Pro中推出个人财务功能预览版,目前面向部分美国用户开放测试。用户需通过Plaid连接银行账户,ChatGPT可接入逾12,000家银行数据,并生成支出图表、投资组合分析等可视化看板。用户可用自然语言查询财务状况、识别可取消的订阅或检测高风险股票。该功能由GPT-5.5 Thinking驱动,未来将支持自动提交信用卡申请等主动操作,并计划向所有用户开放。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。