智能座舱开发与实践
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

2.1.2 车端

从功能的角度看,目前车端交互呈现出了两个功能各异但相互协作的子域——交互娱乐域和交互感知域。在详细讨论前,我们先明确两个经常用到但容易混淆的名词:车载信息娱乐系统(In-Vehicle Infotainment,IVI)和音频视频及导航(Audio,Video and Navigation,AVN)。IVI是集成于汽车中控台的智能多媒体设备。AVN是音频、视频、导航集成一体化的车载主机。因此简单来说,IVI和AVN都是车载主机的代名词,有诸多重复性的功能,但IVI是AVN的下一代,更加偏向于车云结合与智能应用。在第2.1.2节中介绍的应用层中大部分功能最后都是以IVI或AVN的方式进行呈现的。类似地,图2-4所示的娱乐交互中的部分功能也是以IVI及AVN的方式呈现,但随着技术的进步,车端有了更多感知交互方面的扩展,如透明A柱、AR-HUD、手势控制及语音控制等。

图2-3 斑马智行智能座舱架构

图2-4 感知交互与娱乐交互

具体来说,感知交互最核心的功能就是从舱内环境(甚至部分已经扩展到舱外,如车外动作控灯)中感知到人员的交互意图,进而衍生出更多的人机交互功能,增强驾驶安全性。通过将部分感知交互数据与娱乐交互共享,进一步增加娱乐交互的体验感。例如,通过对人脸情绪的识别,从而实现情绪歌单的推送;通过对驾驶员疲劳状况的监控,从而在地图导航中提醒驾驶员服务区、咖啡店或酒店信息等。从图2-4中我们还可以看到,目前感知交互主要依赖视觉、语音传感器,部分还会有舱内雷达传感器,例如,南京楚航科技研发了舱内毫米波雷达,用于儿童遗留检测等功能,并在多个车型上实现了定点。同时,近年来多模态融合的技术方案可以大大提升感知交互的准确度与体感。例如,通过语音+视觉的方式可以实现多模命令词,让语音唤醒和命令更加精准;通过语音+手势(或语音+视线)的多模态交互,让车窗与音量控制更加人性化;通过毫米波雷达+视觉的方案,让活体与疲劳检测可以突破遮挡等诸多限制,进一步减少误报及漏报。而真正高性能的感知交互还可以根据具体场景,推送交互请求,如提供咨询信息、提供车辆状态信息、提供“车对人”的主动交互、降低驾驶员在驾驶过程中的交互负担、改善交互体验等。

从架构的角度看,目前端侧也在不断进行着变化,特别是随着智能座舱功能与交互模式的升级,不同系统之间的数据交互需求也在升级,目前业界开始探索在底层系统方面的融合创新。

以AliOS为例,面向智能座舱的AliOS是管理仪表、车机、后座屏等座舱元素的分布式操作系统。各个子系统承载不同的任务,也具备不同的应用框架和编程接口。同时,通过基于SOA的融合机制,AliOS分布式系统之间可实现硬件互享、服务互通和应用互动,助力开发者打造极具座舱化体验的产品或服务。但是要真正打破多屏间的物理边界,让感知交互与娱乐交互在不同场景应用中无缝衔接,就对操作系统层面提出了感知、连接、计算的融合交互需求。因此,在2020年初,斑马智行提出了AliOS操作系统演进三部曲战略,即智能车机操作系统、智能座舱操作系统、智能整车操作系统。如今斑马智行已经进入了座舱OS阶段,如图2-5所示。

图2-5 面向座舱的AliOS演进图