笔者这个月已经有100次在人行道上差一点就被电动滑板车撞倒的经历,还看到一次电动滑板车造成的事故,事出电动滑板车沿一条单行道中心线朝错误冲红绿灯。我不禁开始想,为什么今时今日的手机可以提供精确导航了,而业内却无法规范电动滑板车用户遵守交通法规。是否可以强制那些越来越多的共享电动滑板车必须整合技术保障,至少用于防止电动滑板车使用者各种严重的交通违规?
现在美国各大城市的街道上都能见到可出租电动滑板车,其速度和突发性无不令人震惊。曾几何时也就是每几周见一次电动滑板车,而今天下午,笔者所在的公寓大楼的一个街区人行道上摆着16辆滑板车,真是不能低估电动滑板车革命对城市交通世界的深入渗透。
虽然骑自行车的人和滑板车爱好者一直都有人无视安全法规,但随处可见的出租电动滑板车的迅速兴起必将令我们审视安全法观念的出现改变。
我们很少见到骑自行车的人在拥挤的人行道中穿梭,即使是短期租自行车用的游客也不会这样做。不幸的是,至少在笔者所在的华盛顿特区这一块,却常常能看到电动滑板车在拥挤的人行道上穿梭。而且,有时电动滑板车上甚至可能载着两三个人,电动滑板车因而会疯狂地左右晃动,快速在行人中穿插而行。
更糟糕的是,电动滑板车从后面接近行人时由于其机动性而不会像传统脚踏板那样礼貌地放缓速度,电动滑板车经常是快速地从行人身边插身而过。
电动滑板车并无车牌,因而缺乏明确的通用标识符,这也使得被电动滑板车蹭了或发生发生其他危险交互时的行人难以向执法人员提供违法者的身份信息。
更糟糕的是,那些经常截停违反交通法规骑车者的警察似乎不那么愿意干预涉及同样违法行为的电动滑板车。
随便放置的电动滑板车也为行动不便的人带来了独特的危险。笔者的邻居是个视障人士,他最近提到,他每天步行到当地的公共汽车站,乱放的电动滑板车都可能导致危险,成了他的噩梦,而另一位使用电动轮椅的居民现在出行时就经常需要有朋友陪同,帮他清除被扔在在人行道中间的滑板车。
在我们现在生活的世界里,智能手机上的导航传感器已经够精确的了,导航传感器可以确定从起点到目的地的距离,能告诉我们身处商场走廊的左边还是右边,在有些地方导航传感器还能区分我们是在人行道上还是在行车道上。
为什么电动滑板车就没有去小小地尝试一下整合这些技术呢?
如果电动滑板车在双车道公路中间朝错误的方向行驶,导航传感器完全可以显示出来,技术上的实现是十分简单的事。将标准商业交通信息整合进来,完全可以确认周围的车辆都是在与滑板车相反的方向移动(同时可以验证这不是由于临时建筑或事故的绕道)。
虽然目前的消费者移动GPS导航要精确区分人行道和行车道的界线还有难度,但利用包括摄像系统在内的其他传感器的整合大可以减少电动滑板车在拥挤的人行道上非法和不安全操作。这些传感器还可用于检测弃在人行道中间的滑板车,传感器可以发出提示的声音,或是呼叫公司工作人员挪开滑板车。
还可以利用类似于在车辆停放辅助系统中的超声波障碍物传感器,在检测到前方有诸如行人的障碍物时自动调节速度。
滑板车公司则可以利用所有这些数据识别那些以不安全的方式操作滑板车的用户或以不安全的方式放置滑板车的用户。用户出现违规行为后,公司可以对其发出警告、罚款和暂停服务,甚至永久禁止这些用户使用滑板车公司的服务。
当然,要添加传感器或使用遥测数据来评估用户的安全性以及是否遵守交通法规会增加公司的额外费用,这些公司目前尚无动力去承担这些费用。
假若一些城市开始通过法规要求在所有机动商业可出租交通工具上安装安全遥测和传感器系统并每天都会向城市公共安全部门提供报告,那么会怎么样呢?至少有办法从系统里移除那些有严重违规行为的用户。而且,通过提高发生违规次数最多地区的可见度,警方可以更准确地开展针对性执法行动。
总而言之,我们现在已经拥有技术和数据分析技术,可以做到令电动滑板车等机动租赁车辆比现在更加安全一些,但硅谷的事情都是这样,法律还跟不上,也不能提供动力令公司采取措施实现这些安全功能。
在他们实现这些安全功能前,我们只得去习惯那些不断增长的不负责任的机动驾驶人士和变化莫测的滑板车障碍。只能与其分享属于我们的人行道。
好文章,需要你的鼓励
Jabra 推出 PanaCast 40 VBS:首款专为小会议室设计的 180° Android 智能音视频一体机
这是一项关于计算机视觉技术突破的研究,由多家知名院校联合完成。研究团队开发了LINO-UniPS系统,能让计算机像人眼一样从不同光照下的照片中准确识别物体真实的表面细节,解决了传统方法只能在特定光照条件下工作的局限性,为虚拟现实、文物保护、工业检测等领域带来重要应用前景。
字节跳动智能创作实验室发布革命性AI视频数据集Phantom-Data,解决视频生成中的"复制粘贴"问题。该数据集包含100万个跨场景身份一致配对,通过三阶段构建流程实现主体检测、多元化检索和身份验证,显著提升文本遵循能力和视频质量。
这篇文章介绍了北京人工智能研究院开发的OmniGen2模型,一个能够同时处理文字转图像、图像编辑和情境生成的全能AI系统。该模型采用双轨制架构,分别处理文本和图像任务,并具备独特的自我反思机制,能够自动检查和改进生成结果。研究团队还开发了专门的数据构建流程和OmniContext评测基准,展现了开源模型的强大潜力。