前言:算法的尽头是物理
2025 年,自动驾驶圈最火的词是'端到端(End-to-End)'。仿佛只要模型够大,数据扔进去,车就能自己开。
但作为一名在一线摸爬滚打的架构师,我要泼一盆冷水:Garbage In, Garbage Out(垃圾进,垃圾出)。
激光雷达(LiDAR)并不是完美的上帝之眼。受限于光速、机械扫描结构和物理反射定律,它吐出来的原始数据充满了'谎言':
- 车在跑,墙变歪了(运动畸变);
- 路过玻璃墙,地下冒出了一辆车(鬼影噪声);
- 每秒 150 万个点,CPU 算不过来(算力瓶颈)。
今天我们不谈大模型,专门聊聊这些自动驾驶感知栈里的'脏活',以及如何用硬核工程手段把它们清洗干净。
一、硬件的谎言:为什么点云会'歪'?
1. 卷帘快门效应
目前主流的机械或半固态雷达(如 Hesai AT128 或 ATX),本质上是'慢速扫描'设备。
- 现象:雷达转一圈(或扫描一帧)大约需要 100ms(10Hz)。
- 问题:在高速公路场景下(120km/h),车在 0.1 秒内已经窜出去了 3.3 米。
- 后果:雷达刚开始扫到的'车头'和最后扫到的'车尾',实际上是在两个不同位置采集的。把它们拼在同一帧里,世界就扭曲了。

这张图直观地展示了代码所需解决的问题。当激光雷达在移动中扫描时,不同时刻采集的点不再位于同一个坐标系下,导致生成的点云出现拉伸和扭曲,就像左图中的汽车一样。右图展示了我们期望得到的、静止状态下的真实几何形状。


