硅谷的 AR 梦想,被华为实现了,但不是在眼镜上

硅谷的 AR 梦想,被华为实现了,但不是在眼镜上

文章图片

硅谷的 AR 梦想,被华为实现了,但不是在眼镜上

文章图片


下周 , 北京时间 6 月 10 日凌晨 , 苹果 WWDC2025 即将正式开启 。 本届开发者大会最引人注目的 , 就是苹果全部终端的 OS 系统不仅统一称为「26」 , 而且在这个「26 宇宙」中 , 所有的 UI 将和 Vision Pro 看齐 。
Apple Vision Pro 售价超过 2 万元人民币|图片来源:Apple
为什么是 Vision Pro?这个售价超过 2 万元人民币的 MR 头显 , 不仅售价高昂 , 而且销量折戟 。 之所以苹果依然要拿 Vision Pro 的 UI 说事 , 还是证明硅谷巨头们 , 对于 AR(增强现实)的心未死 。 从苹果、谷歌到 Meta , 制作出真正能普及到主流人群的 AR 眼镜 , 一直是一个「望山跑死马」的圣杯 。
硅谷公司多年追求未果的 AR , 现在 , 可能在另一个场景 , 被实现了 。
6 月 5 日 , 小鹏携手华为 , 曝光了最新的「追光全景」AR-HUD , 不仅将真正的 AR 效果和优秀的显示结合 , 让车道级导航反馈和显示成为 HUD 的新标配 , 也让 AR 这个科技公司渴求的技术 , 在车内这个场景率先落地 。

HUD , 狗都不用HUD 抬头显示 , 这个多年前只有高端车型才配备的功能 , 现在几乎已经成为新能源车的标配 。 「五屏联动」是近年来车企宣传车内屏幕数量足够多的常用 Slogan , 其中的一屏指的就是 HUD 。
【硅谷的 AR 梦想,被华为实现了,但不是在眼镜上】理论上 HUD 能显示车速、档位等简单信息 , 现代 HUD 又加上了路口、甚至地图等信息 , 让驾驶员不用低头看仪表盘或者中控大屏 , 也能掌握目前车辆的重要信息 。
看似非常实用 , 但其实很多用户对于 HUD 这块「屏」 , 并不十分感冒 。 习惯养成还在其次 , 目前的 HUD 亮度不够、显示面积小以及信息 UI 不佳 , 让它成为车内最鸡肋的一块屏 。
以笔者的经验 , 对于车内 HUD 最大的嫌弃在于 , 一旦戴上偏光镜 , 能看清的 HUD 少之又少 , 索性直接将其忽视 。
而在小鹏「追光全景」AR-HUD 发布会上 , 明显可以看出新产品已经将上述痛点彻底解决 。
华为智能车载光团队研发的车规级成像模组|图片来源:华为
根据华为车载光团队透露 , 小鹏 G7 上搭载的 HUAWEI XHUD 解决方案中 , 新的成像模组 , 已经能将 HUD 的亮度推至 15000nit , 同时将分辨率拉升至 1920x1080、视场角扩大至 13°*5° , 相当于 10 米远处投射出 96 英寸画幅 。
最高亮度提升 , 意味无论是戴偏光镜还是正午十分 , 驾驶者都能看清 HUD 上的信息;而视场的扩大和分辨率的提升 , 则意味 HUD 能进行「车道级」的显示 , 和更多重要信息的提示 。
这两点其实也是 AR 行业一直在关注的 , 毕竟 , 在眼镜片这样方寸之地进行显示 , 效果必须足够出众 , 才能让大众接受 。
但是 , 仅仅提高亮度和可视范围 , 只是解决显示和成像端的难题 , 这款「追光全景」AR-HUD 还只能算是个「更亮的 HUD」 。 让它真正配得上「AR 增强现实」这个名称的 , 恰恰是最难的——对于现实世界的实时感知和反馈 。

AR 眼镜 , 在智能车上落地了苹果的 Vision Pro 要卖 2 万元以上、Meta 的 Orion 原型机甚至没法标价 , 其中的原因就是两款眼镜上都配备了大量的摄像头 , 用来对现实世界进行扫描和感知 , 来让眼镜中显示的元素 , 能完美贴合现实世界 。
如果单纯追求显示效果 , Meta 多年前推出的 VR 头显 , 同样能让用户满意 , 不过后者就只能处于「睁眼瞎」的境地了 。
从硬件角度分析 , 目前的终端处理器和电池 , 尚不能支持眼镜这样轻薄形态的产品 , 实现长时间的实时世界感知和反馈 , 这与其说是投入问题 , 不如说是基础物理和材料学问题 。
而在车载环境中 , 处理器和电池这两个弊端 , 反而成了智能车率先普及真 AR 的强项 。
「追光全景」AR-HUD 能实现真正的车道级 AR 导航|图片来源:华为
正确且实时地认知现实 , 并能准确将元素还原到现实中 , 挑战极大 。 这也是为什么 , 小鹏的「追光全景」AR-HUD 演示中 , 当看到 HUD 中出现的「出匝道」、「并线」等导航信息 , 能和现实中的道路完美贴合时 , 会让人们感到「Aha Moment」的诞生 。
从某种意义上说 , HUAWEI XHUD 解决方案 , 就是给驾驶者在挡风玻璃上造了一副「AR 眼镜」 。 就像钢铁侠 Tony Stark 的头盔一样 , AR 元素并不是简单地出现在 HUD 上 , 而是和现实中的道路贴合 。
要实现真正的 AR 导航 , 除了需要多传感器配合 , 相关的图像引擎同样必不可少 。 HUAWEI XHUD AR 构图引擎集成了华为自研空域算法和低时延实时渲染算法 , 能够根据车载传感器获取的物理世界信息 , 实时渲染生成的辅助驾驶、导航等信息 , 通过对齐空间坐标实现与实景的完美贴合 , 呈现于驾驶员眼前 。
以当时发布会上的演示为例 , 从高速公路驶入匝道时 , 导航图标随着车头同步调整 , 这样图标与物理世界中的目标方向就会发生偏差 , 而华为 XHUD AR 构图引擎能够通过车载传感器实时感知车辆状态及外部世界的信息 , 并实时调整导航图标的位置和形状 。 无论车头状态如何变化 , AR 导航的光毯都始终指向真实世界的目标方向 , 大幅提升 AR 导航的体验 。
另外 , 和 AR 眼镜使用场景不同的是 , 真实车辆在行进时不仅有实时变化的速度 , 同时因路面不同还会出现颠簸 , 这就要求 AR 构图引擎必须能「跟上趟」 , 而且要防颠簸 , 不然就会出现延迟甚至错报 。
AR-HUD 可以清楚提示夜晚「鬼探头」物体|图片来源:华为
HUAWEI XHUD AR 构图引擎采用自研轨迹预测算法时延补偿算法 , 能够根据车辆的行驶状态智能预测真实位置变化 , 并对显示的 AR 图标进行时延补偿 。 通过这套算法 , AR-HUD 能在 200 毫秒内对车辆状态和外部物理世界的变化做出响应 , 使 AR-HUD 画面始终与物理世界精准贴合 。
如果只是能实时反馈道路 , 并将正确的导航信息投送到正确 HUD 位置 , 那其实就浪费了当下智能车在辅助驾驶方面的真正能力 。
当智能辅助驾驶系统的信息 , 可以实时在 AR-HUD 上呈现时 , 才真正让司机在不用看中控屏的情况下 , 始终保持对道路各方面的「全知全能」 。
上图中夜晚道路旁格外难防的「鬼探头」 , AR-HUD 就可以以红色三角标进行提醒;同时 , 出入匝道、地图信息以及停车地点 , 在 HUD 上显示 , 能更好地更立体地对驾驶员进行引导 , 让行车更加安全 。

AR-HUD , 与 AR 眼镜共进化正像硅谷的 AR 眼镜梦想 , 已经做了 10 多年 , 作为这次小鹏发布会上 AR-HUD 的解决方案商 , 华为智能车载光团队同样积累了多年经验 。 从 2019 年成军到 2024 年并入华为智能汽车解决方案 BU , 团队将华为在 ICT 时代积累的光芯片、光系统和光算法等技术 , 用于汽车行业中 。
和华为智能汽车解决方案 BU 将鸿蒙座舱、鸿蒙智驾等技术引入行业一样 , 目前已经有上汽飞凡 R7、小鹏 G7 等车型 , 和问界 M9 一样 , 采用了这套 AR-HUD 技术 。 根据团队透露 , 目前有超过 20 款各家车企在研车型 , 也将采用 HUAWEI XHUD 方案 。
而就像 AR 眼镜行业依然在和光波导等技术较劲一样 , 华为智能车载光同样在研究全息光学元件(HOE , Holographic Optical Elements)、光波导(Optical Waveguide)等技术路线 。
可以预见的是 , 随着技术不断迭代 , 真正的 AR-HUD 将成为未来智能汽车的新标配 。
头图来源:Urban Optics

    推荐阅读