UPA 传感器类型有哪些的发射方式?

本资源由会员分享,可在线阅读,更多相关《第2章 智能网联汽车环境感知技术(194页珍藏版)》请在人人文库网上搜索。

页第2章 智能网联汽车智能传感器技术2.1 环境感知技术简介2.2 智能传感器2.3 传感器融合技术2.4 目标识别技术2.5 人工智能技术

页2.1 环境感知技术简介环境感知技术是是通过安装在智能网联汽车上的智能传感器或V2X技术,对道路、车辆、行人、交通标志、交通信号灯等进行检测和识别,主要应用于先进驾驶辅助系统(ADAS)和自动驾驶系统,保障智能网联汽车安全、准确到达目的地。

页2.1.1 环境感知对象智能网联汽车环境感知对象主要有道路、周边物体、驾驶状态和驾驶环境等

页2.1.1 环境感知对象(1)道路。道路分为结构化道路和非结构化道路,结构化道路识别包括道路边界和各种车道标识线;非结构化道路识别主要是可行驶路径。(2)周边物体。周边物体主要包括车辆、行人、地面上可能影响车辆通过和安全行驶的其他各种移动或静止物体,各种交通标志和交通信号灯等。(3)驾驶状态。驾驶状态主要包括驾驶员自身状态、主车自身行驶状态和周边车辆行驶状态。(4)驾驶环境。驾驶环境主要包括路面状况、道路交通拥堵情况、天气状况等。

页2.1.1 环境感知对象智能网联汽车最主要的感知对象有车辆、行人、交通标志、交通信号灯和车道标线,其中车辆和行人既有运动状态,也有静止状态。对于运动的对象,除了要识别以外,一般还要进行跟踪。环境感知的对象有静止的,如道路、静止的障碍物、交通标志和交通信号灯;也有移动的,如车辆、行人和移动的障碍物。对于移动的目标,不仅要检测,还要对其轨迹(位置)进行追踪,并根据追踪结果,预测该目标下一步的轨迹(位置)。

页2.1.1 环境感知对象

页2.1.2 环境感知方法环境感知方法主要通过惯性元件、超声波雷达、毫米波雷达、激光雷达、视觉传感器、V2X技术、传感器融合等,并配备先进的软件算法。(1)惯性元件。惯性元件主要是指汽车上的车轮转速传感器、加速度传感器、陀螺仪、转向盘传感器等,通过它们感知汽车自身的行驶状态。(2)超声波雷达。超声波雷达主要用于短距离探测物体,不受光照影响,但测量精度受测量物体表面形状、材质影响大。

页2.1.1 环境感知方法(3)毫米波雷达。毫米波雷达可以获取车辆周边环境二维或三维距离信息,通过距离分析识别技术对行驶环境进行感知。毫米波雷达抗干扰能力强,受天气情况和夜间的影响小,体积小;传播损失比激光雷达少,行人的反射波较弱,难以探测。(4)激光雷达。激光雷达可以获取车辆周边环境二维或三维距离信息,通过距离分析识别技术对行驶环境进行感知。激光雷达能够直接获取物体三维距离信息,测量精度高,对光照环境变化不敏感;但它无法感知无距离差异的平面内目标信息,体积较大,价格较高,不便于车载集成。

页2.1.1 环境感知方法(5)视觉传感器。视觉传感器能够获取车辆周边环境二维或三维图像信息,通过图像分析识别技术对行驶环境进行感知。视觉传感器获取的图像信息量大,实时性好,体积小,能耗低,价格低;但易受光照环境影响,三维信息测量精度较低。(6)V2X通信技术。V2X通信技术主要包括V2V、V2I、V2P和V2N,它们采集的信息既可以用于先进驾驶辅助系统,又可以用于自动驾驶系统,特别是车路协同控制,具有较大的优势。V2X通信技术获取的信息范围更为广阔,可以提供360°视觉感知,不受天气和道路环境的影响,可以给驾驶员或自动驾驶系统提供更多的信息,保障车辆的安全行驶

页2.1.1 环境感知方法(7)传感器融合。传感器融合是指运用多种不同传感手段获取车辆周边环境多种不同形式信息,通过多信息融合技术对行驶环境进行感知,如视觉与毫米波雷达、视觉与激光雷达、视觉与超声波雷达的融合等。其优点是能够获取丰富的车辆周边环境信息,具有优良的环境适应能力,为安全快速辅助驾驶提供可靠保障;缺点是系统复杂,成本高。超声波雷达、毫米波雷达、激光雷达、视觉传感器统称为智能传感器。

页2.1.1 环境感知方法

页2.1.1 环境感知方法

页2.1.1 环境感知方法

页2.1.1 环境感知方法

智能传感器——超声波雷达声波是一种在气体、液体、固体中传播的弹性波。分为次声波(f<20Hz)、声波(20Hz≤f≤20kHz)和超声波(f>20kHz)。声波是人耳能听到的声音;次声波和超声波是人耳听不到的声音。超声波雷达也称超声波传感器,它是利用超声波特性研制而成,是在超声波频率范围内将交变的电信号转换成声信号或将外界声场中的声信号转换为电信号的能量转换器件。2.1.1

超声波雷达——定义超声波雷达在汽车上经常用于倒车,所以也称倒车雷达2.1.1

超声波雷达——特点(1)超声波雷达的频率都相对固定,例如汽车上用的超声波雷达,频率有40kHz、48kHz和58kHz等,频率不同,探测的范围也不同。(2)超声波雷达结构简单,体积小,成本低,信息处理简单可靠,易于小型化与集成化,并且可以进行实时控制。(3)超声波雷达灵敏度较高。(4)超声波雷达抗环境干扰能力强,对天气变化不敏感。(5)超声波雷达可在室内、黑暗中使用。2.1.1

超声波雷达——特点(1)探测距离短,一般为3~5m,因此应用范围受到限制。(2)适合于低速,在速度很高的情况下测量距离具有一定的局限性。(3)超声波有一定的扩散角,只能测量距离,不可以测量方位,所以只能在低速时使用,而且必须在汽车的前、后保险杠不同方位上安装多个超声波雷达。(4)对于低矮、圆锥、过细的障碍物或者沟坎,超声波雷达不容易探测到。(5)超声波雷达存在盲区。2.1.1

超声波雷达——组成超声波雷达由发射头(器)、接收头(器)、数据线和拔码开关组成。发射头和接收头安装在同一面上,在有效的检测距离内,发射头发射特定频率的超声波,遇到检测面反射部分超声波;接收头接收返回的超声波,由芯片记录声波的往返时间,并计算出距离值;数据线将数据传输给控制单元。不同用途的超声波雷达,内部结构是有一定差异的。2.1.1

超声波雷达——原理发射头发出的超声波脉冲,经媒质(空气)传到障碍物表面,反射后通过媒质(空气)传到接收头,测出超声脉冲从发射到接收所需的时间,根据媒质中的声速,求得从探头到障碍物表面之间的距离。L=vt/22.1.1

超声波雷达——技术参数(1)测量距离——取决于其使用的波长和频率;波长越长,频率越小,测量距离越大。测量汽车前后障碍物的短距超声波雷达测量距离一般为0.15~2.50m;安装在汽车侧面、用于测量侧方障碍物距离的长距超声波雷达测量距离一般为0.30~5.0m。(2)测量精度——传感器测量值与真实值的偏差。超声波雷达测量精度主要受被测物体体积、表面形状、表面材料等影响。测量精度越高,感知信息越可靠。测量精度要求在±10cm以内。2.1.1

超声波雷达——技术参数(3)探测角度——水平视场角和垂直视场角。2.1.1

超声波雷达——技术参数(4)工作频率——发射频率要求是40±2kHz,这样传感器方向性尖锐,且避开了噪声,提高了信噪比。(5)工作温度——由于超声波雷达应用广泛,有的应用场景要求温度很高,有的应用场景要求温度很低,因此,超声波雷达必须满足工作温度的要求。工作温度一般要求-30℃~+80℃。2.1.1

超声波雷达——产品驻车辅助传感器(UPA)0.15~2.5m泊车辅助传感器(APA)0.3~5m2.1.1

超声波雷达——应用博世公司的超声波雷达可用于停车辅助系统、侧边距报警系统和侧向辅助系统。2. 2.2 毫米波雷达——定义毫米波是指波长为1~10mm的电磁波,对应的频率范围为30~300GHz。毫米波雷达是工作在毫米波频段的雷达,它通过发射与接收高频电磁波来探测目标,后端信号处理模块利用回波信号计算出目标的距离、速度和角度等信息.2.2 毫米波雷达——特点(1)探测距离远,可达200m以上。(2)探测性能好,金属电磁反射强,其探测不受颜色与温度的影响。(3)响应速度快,传播速度与光速一样,可以快速地测量出目标的距离、速度和角度等信息。(4)适应能力强。毫米波具有很强的穿透能力,在雨、雪、大雾等恶劣天气依然可以正常工作。(5)抗干扰能力强,一般工作在高频段,而周围噪声和干扰处于中低频区,基本上不会影响毫米波雷达的正常运行.2.2 毫米波雷达——特点(1)毫米波雷达是利用目标对电磁波的反射来发现并测定目标位置,而充满杂波的外部环境给毫米波雷达感知带来经常带来虚警问题。(2)覆盖区域呈扇形,有盲点区域。(3)无法识别交通标志和交通信号灯。(4)无法识别道路标线。.2.2 毫米波雷达——组成毫米波雷达主要由发射机、接收机、信号处理器及天线组成,发射机通过内置天线向外发射毫米波,接收机接收目标反射信号,经信号处理器处理后快速准确地获取汽车周围的环境信息,如汽车与其他物体之间的相对距离、相对速度、角度、行驶方向等,然后根据所探知的物体信息进行目标追踪和识别,进而结合车身动态信息进行数据融合,最终通过算法芯片进行智能处理。经合理决策后,以声、光及触觉等多种方式告知或警告驾驶员,或及时对汽车做出主动干预,从而保证汽车行驶安全性和舒适性,减少事故发生率。.2.2 毫米波雷达——组成.2.2 毫米波雷达——测量原理毫米波雷达具有3个主要的测量能力,即与目标车辆(物体)的距离、方位角和相对径向速度。毫米波雷达是利用多普勒效应测量得出目标的距离和速度,它通过发射源向给定目标发射毫米波信号,并分析发射信号频率和反射信号频率之间的差值,精确测量出目标相对于毫米波雷达的距离和速度等信息。.2.2

毫米波雷达——测量原理.2.2

毫米波雷达——测量原理.2.2 毫米波雷达——技术参数(1)最大探测距离——所能检测目标的最大距离。(2)距离分辨率——在规定条件下,能区分前后临近两个目标的最小距离间隔。(3)距离灵敏度——单目标的距离变化时,可探测的最小绝对变化距离值。(4)距离测量精度——测量单目标时,目标距离的测量值与其真值之差。(5)最大探测速度——能够探测目标的最大速度。.2.2 毫米波雷达——技术参数(6)速度分辨率——区分两个同一位置的目标速度的能力(7)速度灵敏度——单目标的速度变化时,可探测的最小绝对变化速度值。(8)速度测量精度——测量单目标时,目标速度的测量值与其真值之差。(9)视场角——有效识别目标的探测范围,分为水平视场角和垂直视场角。(10)角度分辨率——在规定条件下,能区分左右临近两个目标的最小角度间隔。.2.2 毫米波雷达——技术参数(11)角度灵敏度——单目标的角度变化时,可探测的最小绝对变化角度值。(12)角度测量精度——测量单目标时,目标角度的测量值与其真值之差。(13)识别率——正确识别目标信息的程度。(14)误检率——将目标识别为一个错误目标的比例。(15)漏检率——未能识别目标报文的比例。.2.2 毫米波雷达——类型近距离(SRR)毫米波雷达一般探测距离小于60m中距离(MRR)毫米波雷达一般探测距离为100m左右;远距离(LRR)毫米波雷达探测距离一般大于200m。有的企业只分为近距离雷达和远距离雷达,具体探测距离以产品说明书为准。.2.2 毫米波雷达——类型划分有24GHz、60GHz、77GHz和79GHz毫米波雷达,主流可用频段为24GHz和77GHz;距离分辨率和精度将会提高约20倍。例如,24GHz毫米波雷达的距离分辨率为75cm,而77GHz毫米波雷达则提高到4cm,可以更好地探测多个彼此靠近的目标。.2.2

毫米波雷达——产品.2

毫米波雷达——产品.2.3

激光雷达——定义激光雷达是激光探测及测距系统的简称,是一种以激光器作为发射光源,采用光电探测技术手段的主动遥感设备。激光雷达是工作在光波频段的雷达,它利用光波频段的电磁波先向目标发射探测信号,然后将其接收到的同波信号与发射信号相比较,从而获得目标的位置(距离、方位和高度)、运动状态(速度、姿态)等信息,实现对目标的探测、跟踪和识别。.2.3

激光雷达——定义.2.3

激光雷达——特点探测范围广:可达300m以上。分辨率高:距离分辨率可达0.1m;速度分辨率能达到10m/s以内;角度分辨率不低于0.1mard信息量丰富:探测目标的距离、角度、反射强度、速度等信息,生成目标多维度图像可全天候工作:不依赖于外界条件或目标本身的辐射特性与毫米波雷达相比,产品体积大,成本高。不能识别交通标志和交通信号灯.2.3

激光雷达——组成发射系统、接收系统、信号处理与控制系统组成.3

激光雷达——组成.2.3

激光雷达——测距原理.2.3

激光雷达——测距原理.2.3

激光雷达——测距原理.2.3

激光雷达——主要指标(1)最大探测距离:通常需要标注基于某一个反射率下的测得值,例如白色反射体大概70%反射率,黑色物体7%~20%反射率(2)距离分辨率:是指两个目标物体可区分的最小距离(3)测距精度:是指对同一目标进行重复测量得到的距离值之间的误差范围(4)测量帧频:测量帧频与摄像头的帧频概念相同,刷新率越高,响应速度越快.2.3

激光雷达——主要指标(5)数据采样率:是指每秒输出的数据点数,等于帧率乘以单幅图像的点云数目(6)角度分辨率:是指扫描的角度分辨率,等于视场角除以该方向所采集的点云数目(7)视场角:又分为垂直视场角和水平视场角,是激光雷达的成像范围(8)波长:波长会影响雷达的环境适应性和对人眼的安全性.2.3

激光雷达——类型机械激光雷达:带有控制激光发射角度的旋转部件探测距离为0.3~200m,水平视场角为360°,垂直视场角为-16°~7°,线束1~6相邻两条线之间的垂直角分辨率为1°,线束6~30相邻两条线之间的垂直角分辨率为0.33°,线束30~40相邻两条线之间的垂直角分辨率为1°.2.3

激光雷达——类型固态激光雷达:依靠电子部件来控制激光发射角度,无须机械旋转部件,故尺寸较小,可安装于车体内激光雷达公司Quanergy在2016年发布的号称全球首款的固态激光雷达S3,可以达到厘米级精度,30Hz扫描频率,0.1°的角分辨率.2.3

激光雷达——类型混合固态激光雷达:没有大体积旋转结构,采用固定激光光源,通过内部玻璃片旋转的方式改变激光光束方向,实现多角度检测的需要,并且采用嵌入式安装32线混合固态Ultra Puck Auto;16线机械式VLP-/172.2.3

激光雷达——类型单线束激光雷达2D数据只能测量距离.2.3

激光雷达——类型单线束激光雷达,2D数据,只能测量距离多线束激光雷达:4线束、8线束、16线束、32线束、64线束、128等,其细分可分为2.5D激光雷达及3D激光雷达2.5D:垂直视野范围一般不超过10°3D:可达到30°甚至40°以上.2.3

激光雷达——产品美国威力登(Velodyne)公司开发的128线束激光雷达的探测距离约是HDL-64E的3倍,达到300m,分辨率则是10倍,尺寸缩小了70%。该产品是为L5级别自动驾驶而开发的.2.3

激光雷达——产品6.激光雷达的主要指标.2.3

激光雷达——产品.2.3

激光雷达——应用.2.3

激光雷达——应用多线束激光雷达具有高精度电子地图和定位、障碍物识别、可通行空间检测、障碍物轨迹预测等功能。L4级和L5级使用多线束激光雷达,360°发射激光,从而达到360°扫描,获取车辆周围行驶区域的三维点云,通过比较连续感知的点云、物体的差异检测其运动,由此创建一定范围内的3D地图.2.3

激光雷达——应用障碍物检测与识别.2.3

激光雷达——应用可行空间检测.2.3

激光雷达——应用精准定位和路径跟踪必须依靠激光雷达和高精度地图等.2.4

视觉传感器——定义视觉传感器是指通过对摄像头拍摄到的图像进行图像处理,对目标进行检测,并输出数据和判断结果的传感器。视觉传感器在智能网联汽车或无人驾驶汽车上的应用是以摄像头(机)出现,并搭载先进的人工智能算法,便于目标检测和图像处理。.2.4

视觉传感器——特点(1)信息量极为丰富:不仅包含有视野内物体的距离信息,而且还有该物体的颜色、纹理、深度和形状等信息(2)多任务检测:在视野范围内可同时实现道路检测、车辆检测、行人检测、交通标志检测、交通信号灯检测等(3)视觉SLAM,通过摄像头可以实现同时定位和建图(4)实时获取场景信息:提供的信息不依赖于先验知识,比如GPS导航依赖地图信息,有较强的适应环境的能力(5)与机器学习、深度学习等人工智能加快融合.2.4

视觉传感器——组成视觉传感器主要由光源、镜头、图像传感器、模/数转换器、图像处理器、图像存储器等组成,其主要功能是获取足够的机器视觉系统要处理的原始图像.2.4

视觉传感器——成像原理.2.4

视觉传感器——成像原理.2.4

视觉传感器——成像原理.2.4

视觉传感器——图像传感器技术参数(1)像素:像素是图像传感器的感光最小单位,即构成影像的最小单位。像素的多少是由CCD/CMOS上的光敏元件数目所决定的,一个光敏元件就对应一个像素。因此像素越大,意味着光敏元件越多,相应的成本就越大。像素用两个数字来表示,如720×480,720表示在图像长度方向上所含的像素点数,480表示在图像宽度方向上所含的像素点数,二者的乘积就是该相机的像素数(2)帧率:帧率代表单位时间所记录或播放的图片的数量;高的帧率可以得到更流畅、更逼真的视觉体验。.2.4视觉传感器——图像传感器技术参数

(3)靶面尺寸:就是图像传感器感光部分的大小。一般用英寸来表示,通常这个数据指的是这个图像传感器的对角线长度,如常见的有1/3英寸,靶面越大,意味着通光量越好,而靶面越小则比较容易获得更大的景深(4)感光度:代表入射光线的强弱。感光度越高,感光面对光的敏感度就越强,快门速度就越高(5)信噪比:是信号电压对于噪声电压的比值,典型值为45~55dB,信噪比越大说明对噪声的控制越好.2.4

视觉传感器——相机内部参数主要有焦距、光学中心、图像尺寸和畸变系数等焦距有可变焦距和不可变焦距,一般用mm表示。.2.4

视觉传感器——相机内部参数.2.4

视觉传感器——相机内部参数.2.4

视觉传感器——相机内部参数相机的镜头是由多个镜片构成的复杂光学系统,光学系统的功能等价于一个薄透镜,实际上薄透镜是不存在的。光学中心是这一等价透镜的中心。不同结构的镜头其光学中心位置也不一样,大部分在镜头内的某一位置,但也有在镜头前方或镜头后方的。.2.4

视觉传感器——相机内部参数.2.4

视觉传感器——相机内部参数畸变系数分为径向畸变系数和切向畸变系数。径向畸变发生在相机坐标系转像物理坐标系的过程中;径向畸变主要包括枕形畸变和桶形畸变两种,.2.4

视觉传感器——相机内部参数.2.4

视觉传感器——相机内部参数切向畸变产生的原因是透镜不完全平行于图像.2.4

视觉传感器——相机外部参数相机的外部参数是指相机的安装位置,即相机离地高度以及相机相对于车辆坐标系的旋转角度。离地高度是指从地面到相机焦点的垂直高度。.2.4

视觉传感器——相机外部参数相机相对于车辆坐标系的旋转角度有俯仰角、偏航角和横滚角。外部参数可以通过棋盘格标定获得。.2.4

视觉传感器——坐标系.2.4

视觉传感器——坐标系.2.4

视觉传感器——坐标系.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——标定.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——环境感知流程.2.4

视觉传感器——类型单目双目三目环视.2.4

视觉传感器——产品.2.4

视觉传感器——应用视觉传感器主要应用于车道偏离预警、车道保持辅助、前向碰撞预警、行人碰撞预警、交通标志识别、盲区监测、夜视辅助、自动泊车辅助、全景泊车、驾驶员疲劳预警等.2.4

视觉传感器——应用车道偏离预警系统.2.4

视觉传感器——应用车道保持辅助系统.2.4

视觉传感器——应用前向碰撞预警系统.2.4

视觉传感器——应用行人碰撞预警系统.2.4

视觉传感器——应用交通标志识别系统.2.4

视觉传感器——应用.3.1 传感器融合的定义传感器的融合就是利用计算机技术将来自多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程。传感器融合要硬件同步、时间同步、空间同步和软件同步。硬件同步是指使用同一种硬件同时发布触发采集命令,实现各传感器采集、测量的时间同步。做到同一时刻采集相同的信息。.3.1 传感器融合的定义时间同步是指通过统一的主机给各个传感器提供基准时间,各传感器根据已经校准后的各自时间为各自独立采集的数据加上时间戳信息,可以做到所有传感器时间戳同步,但由于各个传感器各自采集周期相互独立,无法保证同一时刻采集相同的信息。空间同步是指将不同传感器坐标系的测量值转换到同一个坐标系中,其中激光传感器在高速移动的情况下需要考虑当前速度下的帧内位移校准。软件同步是指时间同步和空间同步。.3.2 传感器融合的原理传感器的融合就是将多个传感器获取的数据、信息集中在一起综合分析,以便更加准确、可靠地描述外界环境,从而提高系统决策的正确性。多传感器信息融合的优势在于,能够综合利用多种信息源的不同特点,多方位获得相关信息,从而提高整个系统的可靠性和精准度。未来传感器融合技术将显得更加重要,并且会成为一种趋势。多传感器信息的融合是无人驾驶安全出行的前提。.3.2 传感器融合的原理(1)分布式。先对各个独立传感器所获得的原始数据进行局部处理,然后再将结果送入信息融合中心进行智能优化组合来获得最终的结果。分布式对通信带宽的需求低,计算速度快,可靠性和延续性好,但跟踪的精度却远没有集中式高.3.2 传感器融合的原理(2)集中式。集中式将各传感器获得的原始数据直接送至信息融合中心进行融合处理,可以实现实时融合。优点是数据处理的精度高,算法灵活;缺点是对处理器的要求高,可靠性较低,数据量大,故难以实现。.3 .2传感器融合的原理(3)混合式。混合式多传感器信息融合框架中,部分传感器采用集中式融合方式,剩余的传感器采用分布式融合方式。混合式融合框架具有较强的适应能力,兼顾了集中式和分布式融合的优点,稳定性强。混合式融合方式的结构比前两种融合方式的结构复杂,这样就加大了通信和计算上的代价.3 .2传感器融合的方案.3 .2传感器融合的方案.3 .2传感器融合的方案.3 .2传感器融合的方案.4 目标识别技术——道路识别道路识别就是把真实的道路通过激光雷达转换成汽车认识的道路,供自动驾驶汽车行驶;或通过视觉传感器识别出车道线,提供车辆在当前车道中的位置,帮助智能网联汽车提高行驶的安全性。.4.1 道路识别技术——道路识别分类.4.1 道路识别技术——道路识别分类.4.1 道路识别技术——图像特征分类(1)颜色特征。颜色特征就是对图像或者图像区域当中色彩的一个描述,它的特点是并不关注细节,不关注具体的某一个像素,而是从整体上来统计图像或者图像区域中的色彩。颜色特征有它自己的优点,比如颜色是不会因为旋转图像发生变化的,即使是放大或者缩小图像,也一样不会有影响。但是颜色特征也不太适用于对图像中的某一局部进行描述。在图像处理中,常用的颜色特征包括颜色直方图、颜色集、颜色矩、颜色聚合向量等。.4.1 道路识别技术——图像特征分类(2)纹理特征。纹理特征给人的直观印象是图像当中色彩分布的某种规律性,它也是面向全局的。但是它和颜色特征还不太一样,它在对每个像素点进行讨论的时候,往往需要在此像素点的邻域内进行分析。纹理特征是不会因为图像的旋转而发生变化的,对于一些噪声也有比较好的适应性。但是它也有自己的缺点,比如当放大或者缩小图像的时候,纹理特征会发生变化,而且光线的变化也会对纹理特征产生影响。纹理特征提取方法有很多,如统计方法、结构方法、模型方法和信号处理方法等。.4.1 道路识别技术——图像特征分类(3)形状特征。形状特征的提出主要是为了讨论图像或者图像区域当中物体的各种形式的形状。这里的形状包含了图像或图像区域的周长、面积、凹凸性以及几何形状等特征。按照形状特征的关注点不同,一般把形状特征分为着眼于边界的特征和关系到整个区域的特征。比较成熟的形状特征描述方法有边界特征法、傅利叶形状描述符法和几何参数法。.4.1 道路识别技术——图像特征分类(4)空间关系特征。图像当中的物体是丰富多彩的,物体作为一个独立的个体会有它自己的特性,而从整体来看,物体和物体之间也会存在一定的联系,其中最直接的联系就是空间位置关系。比如物体之间可能邻接,也可能是被其他物体间隔的。物体和物体之间可能有相互重叠的情况,也有互不关联的状况。在描述空间位置的时候有时候用绝对的描述,比如用具体的图像中的坐标;也可以用相对的描述,比如相对某一物体的左或者右等。空间位置关系的作用是加强了图像当中物体彼此区分的能力。但是存在的问题是空间位置关系随着图像的旋转会发生变化,而尺度的变化也同样会影响它的效果。正是因为这个特点,一般都要将空间位置关系和其他特征配合起来使用。.4.1 道路识别技术——道路识别流程原始图像采集图像灰度化图像滤波图像二值化车道线提取.4.1 道路识别技术——道路识别方法(1)基于区域分割的识别方法(2)基于道路特征的识别方法(3)基于道路模型的识别方法(4)基于道路特征与模型相结合的识别方法.4.1 道路识别技术——道路识别方法【例2-2】利用MATLAB检测图2-62中的车道边界线.4.1 道路识别技术——道路识别方法.4.1 道路识别技术——道路识别方法.4.1 道路识别技术——道路识别方法.4.2 车辆识别技术.4.2 车辆识别技术.4.2 车辆识别技术.4.2 车辆识别技术.4.2 车辆识别技术.4.2 车辆识别技术.4.2 车辆识别技术.4.3 行人识别技术——定义.4.3 行人识别技术——定义.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的方法.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.3 行人识别技术——行人识别的特征.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——交通标志类型.4.4 交通标志识别技术——识别流程.4.4 交通标志识别技术——识别方法.4.4 交通标志识别技术——识别方法.4.4 交通标志识别技术——识别方法.4.4 交通标志识别技术——识别方法.4.5 交通信号灯识别技术.4.5 交通信号灯识别技术——识别流程.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.4.5 交通信号灯识别技术——识别方法.5 人工智能技术——定义人工智能(AI)是计算机科学的一个分支,它企图了解智能的本质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门

}

我要回帖

更多关于 传感器类型有哪些 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信