智能座舱为什么需要多模态交互?

随着汽车智能化技术发展的深入,消费者对汽车的要求也逐渐从需要满足基本空间、动力的需求转而追求智能座舱、辅助/自动驾驶等附加功能,智能座舱作为人机交互核心,将不断迭代创新,保持快速增长。多模态交互也将成为未来人机交互的主流。


什么是智能座舱与多模态交互?

跟传统座舱相比,智能座舱的“智能”主要体现在以下几个方面:

  • 智能化:App远程控制、智能形象+语音欢迎语等;
  • 科技性:高精地图、智能导航、疲劳监测、驾驶坐姿调整等;
  • 易用性:多屏互联(中控屏、仪表盘)等;
  • 安全感:底盘操控、驾乘品质感等;
  • 人性化:自动泊车、寻找充电桩、自动充电等;
  • 第三空间:沉浸式座舱、智能游戏等。

智能座舱中常见的模态有哪些?

目前智能座舱的模态包括视觉、听觉、触觉、嗅觉,对应的模态在智能座舱的体现:

  • 视觉:HUD+仪表盘+中控+后视镜+氛围灯
  • 听觉:音乐+语音交互+警示音
  • 触觉:方向盘+按键+中控+挡位+座椅+
  • 全带更多用于提示场景
  • 手势:隔空控制音量、切换歌曲、控制车窗等场景
  • 嗅觉:不同气味用于不同场景,疲劳场景可提神

智能座舱为什么需要多模态交互?

智能座舱的大部分的信息都放在视觉通道里面,这无疑会增加驾驶员的认知负荷,单模态交互难以满足复杂的驾驶场景,各模块彼此间的关联性不强,大大降低了信息感知的价值。

如何实现高效、安全、易用的人机交互,避免驾驶员注意力分散,降低交互认知和改善人车交互体验是值得思考的问题。

智能座舱为什么需要多模态交互?

智能座舱需要多模态交互的原因主要有两点:

首先,根据多重资源理论,人的信息接收通道有上限,单一通道的信息过载会导致认知负荷,降低效率。因此,通过多模态交互,例如将部分信息由视觉通道转移到听觉或触觉通道,可以有效降低信息处理的工作负荷。

其次,多模态交互可以提高态势感知能力,即对环境的整体、动态理解能力,从而提升对安全风险的识别、理解和响应能力,帮助做出决策和行动。

在驾驶过程中,多模态交互的重要性体现在对驾驶员行为和状态的多模监测上。通过分析方向盘转向、行驶轨迹、油门加减速等数据,以及视觉摄像头的分析,可以判断驾驶员是否处于疲劳、分心等不良驾驶状态。

同时,多模提示可以帮助驾驶员保持良好的态势感知,例如在开启ACC功能时,车辆会监测外部环境和车速、车距等信息,并在AR-HUD上显示,以增强驾驶员的态势感知,降低工作负荷,及时作出有效判断和行动。


智能座舱多模态交互的应用

  • 语音+视觉
    语音交互在实际应用中是不可见的,如果不与其他模态进行融合,很难预判出他们发出的指令处于哪个状态。比如在进行语音命令时,它产生的状态有:唤醒-聆听-识别-播报-持续倾听,通过中控屏幕上的语音虚拟形象状态属性来区别不同阶段,可以提高驾驶员的安全感。

智能座舱为什么需要多模态交互?

  • 视觉+触觉
    小鹏P7打开车道辅助时,为了减少驾驶员在开车时低头看仪表盘,方向盘会通过抖动的方式来提示目前车辆压线的状态;另外,还可以通过方向盘的物理按键唤醒语音,语音虚拟形象的状态变化显示在中控屏上。

除了常规的多模态交互以外,在广义的模态交互还包括了什么?

通过面部特征识别分析当前驾驶者的坐姿设置,自动调节座椅和方向盘高度换而言之,通过眼动追踪、心电、呼吸特征监测驾驶者是否疲劳、身体异常、分神等异常情况,进行多模态警示,来保障驾驶者的安全。


本文转自:智能座舱产业联盟,转载此文目的在于传递更多信息,版权归原作者所有。如不支持转载,请联系小编demi@eetrend.com删除。

最新文章