EDA365电子论坛网

标题: 自动驾驶硬件系统及开发平台介绍(4) [打印本页]

作者: cpupygu    时间: 2020-7-21 14:23
标题: 自动驾驶硬件系统及开发平台介绍(4)
下图是加上整个系统的反应时间,目前自动驾驶的整个系统反应时间会在500毫秒以内,
车辆制动如果是液压的,液压一般是0.3-0.5秒,像卡车气刹能到0.8秒,那结合上这个那个系统反应时间乘以车速,加上刹车距离的话,就是一个自动驾驶系统他需要多远的一个刹车距离。所以按照不同的车速,计算出的刹车距离是不一样的。
目前所有市面上销售的乘用车,刹车性能都非常好,但是好多都远远低于上面这个无人车的技术指标的。从这个技术指标上,也可以看出我们对所有的传感器要求,它的探测距离实际上到150米就足够了。
自动驾驶传感器,我想考一下同学,有同学知道下面这个公式么。
这个公式就是三角函数反正切函数,但是这个公式会多除以一个2,这是因为保证物体检测,为了避免漏检,比如激光雷达两速光线,当这个角度之间有一个物体,正好处于检测边缘的时候,他会产生一定的漏检,除以2是保证它在每一个角度之内都不会产生漏检的可能性,所以公式在三角函数的基础上多处以一个2。通过这个公式去计算,你需要一个多少分辨率的传感器,就是角分辨率的传感器,从公式计算出来在0.4度分辨率下,
我们在100米外就可以检测到一个人。
400米意外,就可以检测到1个人,一辆车,或者一辆骑行的人。
但检测到并不意味着自动驾驶系统识别出来,自动驾驶能识别的只有一条线的成像或很低分辨率的成像,自动驾驶系统其实还是识别不出来。
目前百度apollo平台,激光雷达用的是4到5跳线,这种同一辆车上有4到5条线,这种成像菜可以系统很好的给障碍物进行分类,识别出他是一辆车还是一个行人。velodyne64线是0.4度分辨率下的,它的有效物体感知的距离是50米。
未来自动驾驶床感器发展的趋势,自动驾驶离不开多种传感器的融合,亲中激光雷达和摄像头都属于光学类传感器,核心零部件和处理电路很相似,很可能将激光雷达和摄像头前端融合到一起,直接输出rgb,xyz的整个融合后,一个彩色加点云信息,然后传输到后端进行计算处理,这其中以美国一个创业公司aeye为代表,它开发的iradar系统,不光能真实体现出二维世界的彩色信息,也能将点云信息叠加到每一个像素点,不光有颜色信息,还有一个空间坐标信息。
上图是waymo的原型样机,目前waymo所有的自动驾驶车上面,不是一个简单的激光雷达系统,它有将所有一圈5个这种global shutter的camera融合到一起。
自动驾驶的计算单元需要考量整体的车规,比如说它的电磁干扰和震动方面的设计,另外要考虑到iso26262的要求,所有的cpu,gpu,fpga,包括总线都需要做一些冗余设计,防止这种单点故障,其中还有mcu,他的作用是当整体系统失效的时候,它会发出一些操作,刹车的指令到can总线中,可以让车靠边停车和刹车下来。目前都是这种集式的架构,将所有的计算工作统一放到一个工控机中,它也有一些缺点,目前体积比较大,功耗高,不使用与未来的量产,但这种架构比较方便代码的快速迭代,里面工控机都是卡槽式的设计,也非常方便硬件的更新和扩展。
因为集中式由这些缺点,所以未来也会考虑嵌入式的方案,将传感器的原始数据,线融合到sensor box中,在sensor box中完成数据的融合,将融合后的数据给后端的计算平台,进行计算
sensor box功能主要是我们现在用所有传感器,像激光雷达,摄像头,组合导航,毫米波雷达,打了时间戳的原始数据,我怎么判断这些数据融合后是判断一个目标,所以要做时间戳的同步,时间戳同步是保证在某一个时间戳下大家拍的,或者检测到的都是同一个方向,同一个坐标系的。
时间戳同步是在sensor box中做的,我们将远来集中式计算的部分计算功能拆解出来,会降低整体系统的工号,但是这种还不足以面向更多车辆量产化,目前像dibotics公司和瑞萨(汽车电子企业)联合研发出一些专用的asic芯片,将激光雷达的slam的一些算法,直接集成到了半导体芯片中,就是一个soc(system on chip)。就是系统做到一个芯片当中,将芯片在放入到类似激光雷达传感器中,在传感器内部实现边缘计算,会进一步降低后端的计算量,有利于降低功耗,体积和车规划。
像camera的图像处理以mobileys为标杆,整个sensor和soc结合在一起融汇进来。
) A6 c5 Z% ^3 W. ^% b- E( q/ w

作者: cichishia    时间: 2020-7-21 15:03





欢迎光临 EDA365电子论坛网 (https://www.eda365.com/) Powered by Discuz! X3.2