如果余承东会分身术,上周六他可能也会出现在上汽飞凡R7的内饰分享直播中。
按照惯例,他也会对自家的AR-HUD产品赞一句“世界第一,没有之一”。
(以下画面均为华为AR-HUD演示效果, 非飞凡R7实车,等飞凡R7更新实车效果后,再分享给大家)
此外在驻车环境下,还能提供巨幕影音的观看功能。虽然飞凡R7没有放出效果图,但大家大概想象为,在车外前方7.5米的位置,放了一个70寸的2K电视。
相较于普通的HUD,AR -HUD 显示的画幅更大,信息更丰富,适配的场景和功能也不相同。
HUD是开车时在前挡风玻璃投影出导航、速度这类关键信息,这样驾驶员就不用低头看仪表和中控屏了,主要是为了提升驾驶安全。
AR-HUD的使用场景就丰富很多,总结而言当下有三大场景,人工驾驶时的行驶信息;辅助驾驶时的交互信息;停车状态时的娱乐信息。
当AR-HUD可以接入ADAS的信息,就像是每个驾驶员都能“机械飞升”,体验钢铁侠的快乐。
特别是有的场景下,智能传感器其实比肉眼看得更清晰,例如大雾天气下开高速,有的时候能见度只有5 0米左右,但这时候毫米波雷达不受影响,能提醒驾驶员前方可以存在潜在危险。
此外还有辅助驾驶启用的场景,虽然华为的余总一张嘴就是“自动驾驶” ,但自动驾驶还真的比较遥远,最少3到5年内,我们还是得接受人机共驾的现实。
人机共驾场景下,交互至关重要。我们看到现阶段Pilot功能下,多数交互都是把高精地图和实时感知的建模信息放在中控屏上,做得比较优秀的蔚来,还会通过HUD在视野前方显示一个绿色路线标识。
除了这些场景外,华为AR-HUD此前的演示里还有和智能座舱的交互,例如在视野前方显示周边环境的信息。
这个功能潜力巨大,畅想一下,以后随着语音、视线追踪的多模态交互逐渐成熟,就可以带来更加智能化的出行体验。
例如当你路过某个店面时,当系统捕捉到你眼球停留在某个餐厅时,AR-HUD上可以显示出这家店面的信息和评分,再通过语音主动问你是否预定这家餐厅,并帮你导航过去。
实际上不光是这个功能,由于AR-HUD可以提供更大画幅,更高分辨率的显示,它所承载的想象空间是非常大的。
目前AR-HUD可供选择的产品并不多,除了华为之外,大陆也有相应的方案,不过从进度上来看,华为这一次是领头羊。
之前老在各种场合,听到华为说“用在ICT行业的技术积累赋能汽车行业”。这句话我之前其实没啥大的印象,但AR-HUD着实让我感受到了这种“降维打击”。
对搞通讯的华为而言,控制光这件事早就轻车熟路了。在光通讯领域,需要解决的问题是,控制上千束光在优先尺寸里,做数十次光学折返。
而AR-HUD 只需要控制单束光,在相对宽敞的空间里做10次以内的光学折返就够了。通过R7的图片来看,华为AR-HUD在集成上并没有占据仪表台太大的空间,基本和普通HUD差不多。
这就像是韦神帮博士生解数学题一样,虽然题确实挺难,但相对于韦神日常研究的课题而言,就真的是降维打击了。
花粉社群VIP加油站
猜你喜欢