在点云的3D感知算法中,常用RandomFlip3D和GlobalRotScaleTrans的数据增强方式,这两个可以有效地增强模型的鲁棒性,提升模型的性能。 transforms=[dict(type='RandomFlip3D',sync_2d=False,flip_ratio_bev_horizontal=0.5,flip_ratio_bev_vertical=0.5),dict(type='GlobalRotScaleTrans',rot_range=[-0.78539816,0.78539816],scale_ratio_range=[0.95,1.05]),而本文的出发点在于当我
可视化在深度学习时代算是核心需求,借助可视化功能,研究者可以快速定位分析模型以及排查问题。在OpenMMLab2.0时代,MMEngine对常用的可视化需求进行了设计和实现,其具备如下功能:提供丰富的开箱即用可视化功能,能够满足大部分计算机视觉可视化任务高扩展性,可视化功能多样化,能够通过简单扩展实现定制需求能够在训练和测试流程的任意点位进行可视化OpenMMLab各个算法库具有统一可视化接口,利于用户理解和维护系列文章概览我们将开启可视化分析系列文章,结合MMYOLO中的YOLOv5算法,对MMEngine和MMDetection3.x中实现的可视化功能进行全面解析。通过本系列文章你将能快速
openmmlab提供了MIM来统一安装其多个mm功能框架包https://github.com/open-mmlab/mim,但是需要不借助MIM安装时,这里怎么确定要安装什么版本的mmcv和mmdet、mmdet3d、mmseg,在openmmlab网站主页上没有一个容易能找到的完整表格页面来详细记录他们之间的版本对应关系,好不容易找到个Faq页面,里面却只记录了最新的mmcv2.x和其它组件之间的版本,对历史1.x版居然都不记录!反正openmmlab对其mm序列多个功能框架包之间的完整历史版本的对应关系的说明就没有一个完整的清单列表或者统一查询的地方,每次使用基于mmdetectio
文章目录前言MMDetection3D介绍及安装使用MMDet3D的安装和依赖使用MMDet3D预训练模型在点云和图像数据上推理second模型测试pointpillars模型测试centerpoint模型测试smoke图像3D检测KITTI数据集介绍以及MMDet3D坐标系规范(以下代码都是在v1.0的环境下运行的)使用MMDetection3D进行训练前言本文所观看视频教程的mmdet3d版本为v1.0.0rc5,而我使用的是v1.1.0rc3。v1.0.0rc5的一些实现可以参考我的另一篇博客基于MMDet3D的pointpillars和centernet推理(mmdet3dv1.0rc
MMDetection3DversionMMDetectionversionMMSegmentationversionMMCV、versionmastermmdet>=2.24.0,mmseg>=0.20.0,mmcv-full>=1.5.2,v1.0.0rc4mmdet>=2.24.0,mmseg>=0.20.0,mmcv-full>=1.5.2,v1.0.0rc3mmdet>=2.24.0,mmseg>=0.20.0,mmcv-full>=1.4.8,v1.0.0rc2mmdet>=2.24.0,mmseg>=0.20.0,mmcv-full>=1.4.8,v1.0.0rc1mmdet>=
mmdet3d在处理waymodataset的时候,3D/2Dgtbox,pointcloud等数据进行了非常多的坐标系转换。本身waymo的坐标系也有不少。写这篇文章的motivation主要是,自己在处理3Dpoint投影到2Dimage的过程中产生了两个问题:枚举egocentric3D点投到5个相机的时候,发现覆盖范围是歪的,frontcamera没有正对前方;别人的方法如CMKD,BEVrange都是正的使用同样的投影矩阵,将3Dgtbox的center投到相机时,pixel坐标和waymo给的projectedlaserlabel中的坐标不一致。最后1是因为u,v弄反了,2是因为w
目录一、原理二、源码解读1、总参数文件configs/cascade_rcnn/cascade_mask_rcnn_r50_fpn_1x_coco.py2、模型配置字典../_base_/models/cascade_mask_rcnn_r50_fpn.py3、基于检测器类搭建模型CascadeRCNN4、backbone(ResNet) 5、neck(FPN)6、rpn_head(RPNHead)7、roi_head(CascadeRoIHead)一、原理《CascadeR-CNN: HighQualityObjectDetection and InstanceSegmentation》
在waymo上测纯视觉baseline(多相机模式),分很多步:处理数据集为kitti格式修改dataloader代码修改模型config修改模型target和loss修改evalpipeline的代码mmdet3d官网的waymodataset教程过于简略,处理的结果只能给pointpillar用,而且是旧版的数据集。对初学者的我非常不友好。下面基于mmdet的教程(以下简称教程),简要归纳一下具体流程,并解释如何修改mmdet3d的代码,使得detr3d在处理waymo的道路上,迈出第一步。事实上,直接手写一遍处理比研究并修改这套代码更快,但是作为初学者,为了熟悉框架,我还是看了一遍环境配
在waymo上测纯视觉baseline(多相机模式),分很多步:处理数据集为kitti格式修改dataloader代码修改模型config修改模型target和loss修改evalpipeline的代码mmdet3d官网的waymodataset教程过于简略,处理的结果只能给pointpillar用,而且是旧版的数据集。对初学者的我非常不友好。下面基于mmdet的教程(以下简称教程),简要归纳一下具体流程,并解释如何修改mmdet3d的代码,使得detr3d在处理waymo的道路上,迈出第一步。事实上,直接手写一遍处理比研究并修改这套代码更快,但是作为初学者,为了熟悉框架,我还是看了一遍环境配
一、创建流程mmdet3d将nuscenes数据加载的流程进一步进行了标准化,以前的各类模型(e.g.CRFNetCenterFusion)等对于nuscenes数据集处理各不相同,就导致我们使用时需要重复造轮子,尤其是在进行多相机视图,多帧雷达点云融合时,各种各样的坐标转换等工作会增加前期工作难度。MMDetection3D对于数据的加载有以下优点:可修改性强、数据加载流程标准、源码书写规范,基于以上原因,深入源码阅读并总结数据加载的方式。首先,数据通过一行命令完成转换,这个过程中做了以下工作:将数据信息读入并将其转换为pkl格式方便mmcv.load读取在读取过程中完成多视图图像的整合、多