作为乘用车自动驾驶领域的领头羊,特斯拉在纯视觉这条路上走的十分决绝,甚至连仅有的毫米波雷达,也在前不久被特斯拉抛弃了。然而,在感知层面,领头羊几乎快成了“独羊”,更多的品牌不约而同的在感知方案中加入了激光雷达的选项,甚至已经“卷”了起来。
不同于上海车展激光雷达刚刚上车时给我们的震感,经过半年多的发展,广州车展上大家对各家展台上普遍出现的激光雷达方案已经习以为常。在这样的大环境下,对激光雷达的宣传也变得五花八门,广汽埃安打出了3颗激光雷达”领先一代“的口号;而长城旗下的全新品牌沙龙,更是直接在宣传海报上挑衅式的写到”4颗以下别说话“......
摄像头的重要性是太阳做的决定
纯视觉路线和感知融合路线之争,已经是老生常谈的话题了。从传感器上来说,摄像头本身有着绝对的优势,只闻马斯克毅然砍掉毫米波雷达,不见哪家铁憨憨敢直接踢掉摄像头。即便是激光雷达的坚定支持者,感知方案中一样需要将摄像头摆在足够重要的位置。
这是整个社会环境,甚至是亿万年来的自然环境决定的。我们的地球身处太阳系,享受着阳光给予地球的能量。而太阳辐射的能量,绝大部分是波长在380~780nm之间可见光,当然也有不少临近的红外线和紫外线,而地球大气层中的臭氧层尽职尽责的帮我们过滤掉了绝大部分紫外线,让我们免受皮肤癌等问题的侵扰。所以,地球上的生物进化出了可以通过可见光观察周遭事物的眼睛。
而快速发展的人类文明,也是基于人自身的感知能力进行建设,交通系统都保证人通过肉眼就能够做出判断,不需要给司机植入各种天线才能开车。所以,能够模拟人眼观察世界方式的摄像头,自然也成为了机器感知的重要途径,毕竟机器也身处地球。
包括自动驾驶在内的机器学习依赖近几年高速发展的人工智能技术的进步,人工智能依赖的深度学习算法需要海量的数据进行训练。芯片算力的提升和移动互联网发展形成的海量数据是人工智能近几年能够高速发展的重要基础,我们能够训练出什么样的算法,强依赖我们有什么样的数据。我们有什么数据?最多的当然是基于可见光拍摄的照片,人手一部的手机几乎都带有摄像头,激光雷达可没普及到这种程度。这也是人工智能快速发展中,发展最快的基础应用是语音识别和图像识别的重要原因,因为这里有人本身能够大量创造的数据,也是人们最基础的需求。
“激雷”不鸡肋
摄像头的重要性已经毋庸置疑,那激光雷达是不是全无意义的鸡肋?这很难有定论,但至少当下来看并非如此。人通过眼睛感知世界,是有强大的大脑作为坚实后盾的。到目前为止,想让芯片拥有比拟人脑的能力还做不到。人工智能已经可以在棋类游戏中击败人类,甚至是围棋这样无法通过暴力计算解决的棋类。但想在环境复杂多变的驾驶方面比肩人脑,人工智能还只能高呼”臣妾做不到啊“。
在特定的场景下,通过充足的深度学习训练,机器凭借其不犯错的能力能够做到比人更好。问题在于,公开道路并非单调的特定环境。我们可以把自动驾驶可能面对的场景分为四个大类:1、已知的安全场景;2、已知的不安全场景;3、未知的不安全场景;4、未知的安全场景。穷尽未知的场景,在自动驾驶发展的这短短几年间显然无法做到。
视觉最大的优势在于可以通过数据训练准确的认识视野内的目标物体,而他最大的问题就是对训练不充足的目标可能会认错。以自动驾驶领头羊特斯拉为例,由于数量庞大,也给我们展示了很多生动的案例,比如高悬空中超过38万公里的红绿灯,比如在马路上狂奔的尖叫鸡,比如在公交车后一路狂奔的曾志伟,也有落在马路上的“云彩”这种后果严重的错误。
激光雷达的优势就在这里,虽然目前没有海量的数据库,也没有人类直观的标记给做深度学习算法做训练,但是激光雷达可以精准的对周遭环境进行3D建模,任何障碍物的详细尺寸、距离都能够一目了然。很可能,系统没法通过算法认出前方的障碍物是什么,但可以明确的知道他在那里,不刹车就会撞上。这时即便视觉判断出了偏差,系统仍然能够做出正确的决策。
在自动驾驶逐步成熟的道路上,新发现的每一个未知场景都能带来一次进步,但这往往是将用户置于危险或濒临危险的环境中作为代价。激光雷达不是全能的神,但至少他有能力减少让用户身处危险场景的可能。
感知 “知”比“感”更重要
大自然五彩缤纷,我们总认为我们看到的就是世界本来的面貌。但真的是这样吗?
孔雀开屏的绚丽让人类也为之动容,很多鸟类的雄性都有着华丽的外表来吸引异性的注意,但有没有想过,乌鸦等为什么通体漆黑?
人之所以能够看到颜色是因为我们的视锥细胞能够感知红绿蓝三种颜色的色素,红绿蓝也就是我们经常提及的RGB,通过RGB的不同组合可以还原出自然界五彩缤纷的颜色,这也是显示器等能够模拟自然界色彩的基础理论。但不同的生物对颜色的感知其实是不一样的,你在看电视时,你的宠物或许会疑惑这个“铲屎官”为啥能忍受这么严重的偏色?不过猫、狗除外,研究表明,哺乳动物中只有人类所在的灵长目进化出了感知颜色的视觉系统,包括猫、狗在内的绝大多数哺乳动物眼中的世界都是灰蒙蒙的。
然而神奇的是,鸟、鱼、两栖类甚至昆虫或许能够感知比人更丰富的色彩,它们眼中有四种色素,比人多一种。例如鸟类,他们普遍对蓝色有很强的感知,可以看到部分人眼看不到的紫外线。我们人类看到的漆黑乌鸦等鸟类,在其同类眼中通过反射紫外线,其实也有着斑斓的色彩。“天下乌鸦一般黑”不过是人的偏见而已,乌鸦如果能听懂,可能40米的大长刀早就出鞘了。
回到自动驾驶,其实我们不用纠结是不是拟人的摄像头才是最强的感知硬件,人看到的也不过只是世界的一小部分而已。如果更多样的传感器能够让系统感知更丰富的信息,又何必拘泥于可见光?当然前提是要在成本可控的基础上,毕竟汽车依然是商品。
昆虫有比人类多一种的视觉色素,那让人生厌的蟑螂能看到比人更丰富的世界?并不见得。人类通过眼睛看世界,更通过大脑“知”世界。获得的信息没有很好的处理,那就不过是一堆单调无用的数据而已。对于自动驾驶,先进的算法比堆砌的感知硬件更重要,这也是特斯拉通过纯视觉能够成为自动驾驶领头羊的重要原因。
说到这里大家或许首先想到的就是芯片的算力,对,算力很重要,但也不是唯一的参考。
自从解剖学让我们搞懂了人类的生理结构,我们就一直在思考:为什么只有人能够思考“为什么只有人能够思考'为什么只有...‘”这个问题。开我们把原因指向了脑容量,智人为了这个大脑袋,在进化的过程中失去很多力量和速度,可是自然界中比人脑更大的大脑比比皆是,比如大象、比如蓝鲸.....于是我们又把问题指向了大脑质量和身体总重之比,那我们也只不过和小鼠相当而已.....
总之,人类的智力并不是简单的大脑体积和重量决定的。而在自动驾驶领域,算力更多决定的是系统可以处理的数据量上限,而不完全能够和自动驾驶能力对等。优秀的算法和大量的训练才能带来一个更安全高效的自动驾驶系统。
在2021广州车展上,我们看到了越来越多的量产或准量产车型,凭借强大的智能硬件开始涉足自动驾驶或高阶辅助驾驶,摄像头从基础的200万像素到800万像素的高清摄像头,激光雷达从1颗到4颗,系统算力从几TOPS到上千TOPS。硬件确实并非决定自动驾驶能力的全部,不过至少更强的硬件能够带来更高的安全冗余,一个厂商当前的算法能力是难以快速飙升的,那么更强的硬件对于其自身而言便也是更有意义的。而通过后期的OTA升级,更多的备份也能提供更多的可能性。
不过不管是厂商还消费者,一定要谨记当前的量产车匹配的自动驾驶仍然处于L2级辅助驾驶阶段,不管在宣传上还是使用中都切不可高估当前的系统能力,安全是自动驾驶的底线。我们对未来的完全自动驾驶汽车充满期待,也在摸索中不断的进步,但谁都不希望,进步的过程中有生命的代价。
转载文章,不代表本站观点。