自动驾驶车辆传感器方案对比分析

2023-07-12

无人驾驶汽车中有哪些传感器

本文介绍无人驾驶中几种主流的环境感知传感器,包括视觉摄像机、毫米波雷达、超声波雷达、激光雷达。通过分析对比每种传感器的原理和优缺点,进一步理解不同场景下如何构建感知方案。

1、感知传感器

在无人驾驶中,传并贺感器负责感知车辆行驶过程中周围的环境信息,包括周围的车辆、行人、交通信号灯、交通标志物、所处的场景等。为无人驾驶汽车的安全行驶提供及时、可靠的决策依据。

目前常用的车载传感器包括相机、毫米波雷达、超声波雷达、激光雷达等。根据各个传感器的特性,在实际应用中往往采用多种传感器功能互补的方式进行环境感知。

自动驾驶车辆传感器方案对比分析 (https://ic.work/) 推荐 第1张

2、视觉摄像机

传感器原理

摄像头属于被动触发式传感器,被摄物体反射光线,传播到镜扰斗头,经镜头聚焦到CCD/CMOS芯片上,CCD/CMOS根据光的强弱积聚相应的电荷,经周期性放电,产生表示一幅幅画面的电信号,经过预中放电路放大、AGC自动增益控制,经模数转换由图像处理芯片处理成数字信号

其中感光元器件一般分为CCD和CMOS两种:CCD的灵敏度高,噪声低,成像质量好,具有低功耗的特点,但是制作工艺复杂,成本高,应用在工业相机中居多;CMOS价格便宜,性价比绝李派很高,应用在消费电子中居多。为了满足不同功能的视觉需求,有很多不同种类的摄像机。

传感器分类

组合相机:这里指无人驾驶前视环境感知中常出现的单目/双目/三目,由不同焦距组成光学阵列,用于探测不同范围内的目标。

传统的单目做前视感知一般FOV较小,景深会更远,能够探测远距离障碍物,比如mobileye早期产品采用52°的镜头,当然现在主推的是100°摄像头能够感知更广的范围。

双目相机利用视差原理计算深度,通过两幅图像因为相机视角不同带来的图片差异构成视差。双目立体视觉在测距精度上要比单目做深度估计准确很多。

无人驾驶技术现状及发展前景如何?

前段时间人工智能第一场血案----Uber撞人致死事件将自动驾驶推到公众的视线焦点,相比这起事件你也看到过,目前无人驾驶有一个很重要的短是驶视觉有无法克服的死角。

目前主流的自动驾驶传感系统都是采用可见光+雷达的解决方案。

第一、可见光摄像头,覆盖距离有限,无夜视功能,夜间不工作。

第二、雷达方案也存在致命硬伤:毫米波雷达存在识别区间限制,而激光雷达对于恶劣天气经常误判。

请注意,毫米波雷达对金属的反射过于敏感,路上的钢板、凸起的井盖,甚至易拉罐的底部,在毫米波雷达的眼中,都相当于一堵墙;当一个人从车流中突然窜出时,毫米波雷达无法对前方障碍物进行及时准确建模,于是惨案就发生了。

遗憾的是,目前没有哪种传感器能达到100%的安全、准确。

科学考证目前最成熟的方案就是自动驾驶视觉必须在目前的方案上加入红外热像技术,即红外热像仪+可见光+毫米波雷达+激光雷达,四位一体全方位无死角才可做到万无一失。网上搜集了大量的数据考证,目前全球红外热像仪核心部件和整机的研发和生产企业真是凤毛麟角少之又少,全球总共只有几家,实力最强的也就那么几家,美国的FLIR、中国的艾睿光电及SEEK,高德等,目前中国的艾睿光电可以说是我们中国的骄傲,据资料显示,艾睿光电目前在芯片和整机的研发量产能力上国内领先一截,技术水平紧追FLIR,个别已经领先,所以无人驾驶方向,很多车企根本没必要看美国人的脸色,受他们的限制管控,我们中国企业照样能创造出一流先进的产品来满足他们的需求,

中国企业加油!!!

文章推荐

相关推荐