超速档VIP俱乐部

特斯拉又要降价了吗?新款将取消雷达 这就是减配!

       前几天,特斯拉发布公开消息称,将在今年稍后推出一款新款的Model 3车型。这车相比起现在的款式有啥变化呢?最大的变化在自动驾驶硬件这块,现在的Model 3采用了雷达+视觉的硬件组合,说人话就是通过在车头和车侧的一大堆各种雷达,配合上各种摄像头,获得路面的实时准确的信息,然后根据这些信息进行辅助驾驶相关的功能操作,例如自动跟车啥的。



    这个新款Model 3最大的区别,就是从上述的混合型辅助驾驶方案,改为了纯视觉型方案,换句话就是取消掉车上所有的雷达,全部依靠摄像头来获得路况信息。

    这是个啥操作?这种所谓的视觉方案和雷达方案,包括上面提到的混合方案,到底对于辅助驾驶有多大帮助?我们作为消费者,应该怎么选择?

    大家可能最关心的是,这台纯视觉版Model 3和普通版到底有啥不一样,其实从理论上来说,因为取消掉了大量雷达,包括成本高昂的毫米波雷达,这种单纯依靠多摄像头来实现L2级辅助驾驶的方案,至少从成本上是要比现在的雷达+摄像头的混合方案要便宜很多的。我的意思是,这里大概能有2万左右的价格差。

    所以如果这个价格差能直接体现在售价上,那纯视觉版的Model 3自然会相比起现在的版本更便宜些。当然,我们并不能排除特斯拉打算直接吞掉这些差价,而导致新车的价格不会有任何变化,这是特斯拉完全做得出来的事情。

    不过看到这里你可能会问了:只看疗效的话,纯视觉方案和纯雷达方案,以及现在绝大多数车子都在用的混合型方案相比,在辅助驾驶的表现上有什么不一样吗?要解答这个问题,我们得先知道这三种方案都是怎么获得路况信息的,这是任何一种辅助驾驶或自动驾驶系统的关键。

    人类是通过什么方式获得外界信息的?通过眼睛,再通过大脑处理信息,这样我们就可以感知得到外部世界了。汽车要实现自动驾驶,或者某种类似于自动驾驶(也就是现在的辅助驾驶)的功能,其中第一环就是对路面信息的获取,这个在技术上叫道路感知能力。

    和人一样,汽车先要“看到”路,才能通过“大脑”,也就是车载电脑里的CPU处理这些路面信息,车子才会知道自己处在一个什么状况下,应该怎么做。而上面说的雷达也好,摄像头也罢,就是车子的“眼睛”。

    雷达的优势在于“看”得远,可以探测到相比摄像头更远地方的信息,但缺点在于获得信息的精确度不足。这就有点像远视+散光患者,能看很远,但看到的东西都是模糊不清的。这就是纯雷达方案,也是最早期的辅助驾驶方案,这个方案因为精确度太差早已被淘汰了。

    而针对雷达看得远看看不清的“先天性缺陷”,车企们有两种手段解决。第一,也是比较花钱的方法,是给车子装上大功率的激光雷达,激光雷达的最大优点就是扫描精度非常非常高,但缺点是激光雷达能“看”多远,完全取决于它的激光发射功率。但激光雷达也不是只要盲目上大功率就完事儿的。激光雷达的“眼睛”有点像老虎,看得很仔细,但视觉范围很窄,所以一些相对高端的车型,你往往能看到车顶装了多个激光雷达,不是这些车企吃饱了撑的,单纯只是因为一个激光雷达看的范围不够宽,需要几个一起来看而已。

    但激光雷达这玩意成本太高了,基本上搭载了这种东西的车,车价不可能太低。这些三四十万的车不可能是市场主流,那么对于需求量更大的,十来二十万的车,除了激光雷达就没办法解决雷达的“散光”问题了?

    摄像头这时候就派上用场了。雷达+摄像头的这种技术方案,就是上文提到的混合型方案。这种车一般会有3个摄像头,分别是一个鱼眼镜头,用于拍摄角度非常大的,车前或者车尾一大片区域内的所有景物;一个中等焦距的高像素大底摄像头,用于拍摄车头前方大概20-50米范围内所有景物的超高清影像,以及一个远距摄像头,用于拍摄前方100米左右的路面信息。这三个摄像头提供的影像信息,综合到车载电脑芯片中的GPU部分,利用GPU对于图像的解码和处理能力,再结合车企本身的图像解码算法,得出车子四周的道路信息。

    再结合雷达提供的信息,两者合并起来,车子就知道自己现在所处的环境了,再通过强大的芯片实时运算和优秀的算法,进而实现先进的辅助驾驶功能。

    而特斯拉也好,其他一些车企今年内会推出的纯视觉方案车也罢,它们的做法就是在上述这个混合方案的基础上,完全丢掉雷达,舍弃掉雷达提供的信息,完全依靠摄像头拍摄的路面信息,通过自身强大的处理器性能和优秀的软件算法,来实现和混合型方案在理论性能上别无二致的辅助驾驶能力。



    纯视觉方案是有技术门槛的,这个门槛主要是硬件算力和软件算法。由于没有了最直接的雷达信号提供,车辆需要获得的大量实时路况信息,全部都要依靠摄像头拍摄图像---芯片进行图像实时处理,再进行数据统合。这就对摄像头和处理器的链接效率,处理器处理数据的算力,以及处理好数据之后,调用什么算法,算法本身是不是足够好有很密切的关系。

    说白了,纯视觉方案就是把所有的运算压力全都堆给了车载电脑和软件算法本身。这也就意味着要玩转纯视觉方案,这家车企必须有很强的硬件,同时自身的软件算法也要足够强。算法和硬件的配合是需要沉淀,需要积累的,所以能玩纯视觉方案的,基本都是一些在自动驾驶领域有多年积累的车企,新晋车企是没法搞这个的。

    如果纯视觉方案搞得好,那么它有两个很大的优点,第一,它能获得比混合型方案效率更高,效果更好的辅助驾驶能力。其二,它的硬件成本比混合型方案低很多,很有利于单车利润的提高,也能留下更多的后期降价空间。

    但纯视觉方案在技术上最大的问题在于强烈阳光对摄像头的影响难以消除。尽管现在自动驾驶系统的摄像头模组都有防眩光涂层或专门的防眩光镜头,但面对正午或傍晚直射的强烈阳光,摄像头模组是大概率会出现短暂“失明”的。甚至于长时间让摄像头模组暴露在直射的阳光下,摄像头里的CMOS会因为摄像头镜头本身的聚焦效应产生的高温,可能会烧CMOS。这也是所有单反和无反相机的说明书里都会有这么一句:不要长时间举着相机直接面对直射的阳光,可能会造成感光元件(即CMOS)烧毁。

    这个问题是无解的,而我们不可能要求车辆必须行驶在没有阳光直射的地方,我们更不可能要求车辆在阳光直射下只能行驶多长时间。而无论是纯视觉方案还是混合型方案,只要有摄像头系统,无论你有没有打开辅助驾驶(摄像头本身有没有通电),甚至你只是把车停在那,阳光也照样会穿过摄像头的多层镜头,直接对CMOS造成不可逆转的损伤。

    如果是混合方案,在使用多年后,摄像头模组出现硬件故障了,这时候至少还有雷达兜底,但像Model 3新版本这样,使用几年后,摄像头模组功能异常了,那就完全没任何东西给它“兜底”了。更要命的是,你从外观上是看不出摄像头模组到底坏没坏的,哪怕车子自己的自检程序,也发现不了这种问题。

    基于上述问题,我们不建议大家在以后购车时,选择纯视觉方案的车款。考虑到绝大多数车企在宣传中都不会明确提到自己某款新车的辅助驾驶系统采用的是何种方案,除非你对辅助驾驶系统没有很强的需求,如果你对这种功能要求较高,或自觉使用频率较高的话,在购车前,大家有必要问一句,这车用的辅助驾驶系统是什么方案,有没有雷达,是不是纯视觉方案。

    如果遇到纯视觉方案的车,我们建议大家不予考虑,因为不管算法硬件这些东西做得多好,纯视觉方案的故障率,先天是要高于混合型方案的。