思路索引
- 1、通过yolov8预测出image中的2d目标框和mask;
- 2、过滤出位于图像范围内的激光雷达点;
- 3、基于单个深度相机估算出2D框在ego坐标系下的的W和H;
- 4、融合2D图像框和3D激光点(使用mask还是使用box )
- 5、融合之后的激光点进行聚类(因为纵向的长度(虽然在二维画面上看起来像素点距离很近,但实际每个点到相机的距离不一样,有的点会很远或者很近,所以进行聚类)
大致思路如上,先看坐标系转换;
待整理。。。
1、通过yolov8预测出image中的2d目标框和mask;
2、过滤出位于图像范围内的激光雷达点;
3、基于单个深度相机估算出2D框在ego坐标系下的的W和H;
4、融合2D图像框和3D激光点(使用mask还是使用box )
5、融合之后的激光点进行聚类(因为纵向的长度(虽然在二维画面上看起来像素点距离很近,但实际每个点到相机的距离不一样,有的点会很远或者很近,所以进行聚类)
本站资源均来自互联网,仅供研究学习,禁止违法使用和商用,产生法律纠纷本站概不负责!如果侵犯了您的权益请与我们联系!
转载请注明出处: 免费源码网-免费的源码资源网站 » 自动驾驶中,2d图像目标检测(分割),融合激光雷达点云信息
发表评论 取消回复