欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

两步路轨迹文件位置_最新Uber ATG的轨迹预测方法LiRaNet介绍

发布时间:2025/3/15 编程问答 37 豆豆
生活随笔 收集整理的这篇文章主要介绍了 两步路轨迹文件位置_最新Uber ATG的轨迹预测方法LiRaNet介绍 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

arXiv今年10月刚刚上传论文“LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar Fusion“。

其特色在于,除了激光雷达和HD Map之外,该轨迹预测方法采用了雷达传感器的信息。雷达和激光雷达融合是有挑战性的,因为前者的低角分辨率缺陷,而且数据稀疏,和激光雷达同步也很难。为此,本文提出一个有效的时空雷达特征提取方法。


如图所示是雷达的挑战和益处的示意图:一个鸟瞰示例场景,其中当前、过去和将来帧中激光雷达点(浅蓝色)和雷达点速度(橙色)通过标签(白色)可视化。 车辆A是转弯公交车,在整个车架上有多个雷达点。 在空间和时间有效地组合这些信息,可以恢复完整的2D速度和转速。 车辆B显示出雷达固有的高位置噪声。 车辆C显示一个稀疏的激光雷达点情况,这时候时域隐式关联可能是一个挑战。 但是,C周围存在的雷达点可以为模型添加上下文信息,方便检测和预测轨迹。

融合多传感器的信息,可采用BEV格点,这里提出的是一个采用雷达数据学习BEV网格单元的时空特征方法。最后这些特征用于目标检测和预测的应用。

下图是LiRaNet纵览图:雷达特征提取网络(A)分两步从原始雷达点提取时空特征:(1)对于每帧,在BEV网格单元和雷达点之间创建一个图,用非刚性卷积学习空域特征,(2)这些空间特征在时域进一步融合,即沿通道维堆叠并使用MLP获得雷达特征体(feature volume)。 然后将此特征体与其他传感器的特征体融合,并馈入检测和未来轨迹预测的联合感知-预测网络(B)。 最后可以看到一个场景预测示例(C)。

雷达特征的计算如


激光雷达和HD Map的特征学习类似,其中HD Map表示为一个包括车道线几何信息的图像。

整个网络主干类似于以前Uber的工作,即CVPR论文【38】PnPNet。整个网络架构图如下所示:

如下是一些实验结果:

下表分析三个影响因素。

创作挑战赛新人创作奖励来咯,坚持创作打卡瓜分现金大奖

总结

以上是生活随笔为你收集整理的两步路轨迹文件位置_最新Uber ATG的轨迹预测方法LiRaNet介绍的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。