mmrotate旋转目标检测框架的学习与使用是在AutoDL的服务器上进行的,配置为ubuntu18.04,GPU RTX 2080 Ti * 1,以下是一个学习过程的记录,希望能对大家有所帮助。
MMRotate 依赖 PyTorch, MMCV 和 MMDetection,以下是安装的简要步骤。 更详细的安装指南请参考 安装文档。
conda create -n open-mmlab python=3.7 pytorch==1.7.0 cudatoolkit=10.1 torchvision -c pytorch -y
conda activate open-mmlab
pip install openmim
mim install mmcv-full
mim install mmdet
git clone https://github.com/open-mmlab/mmrotate.git
cd mmrotate
pip install -r requirements/build.txt
pip install -v -e .
一切顺利之后,为了验证是否正确安装了 MMRotate,我们需进行以下操作。
新建一个checkpoint文件夹,将checkpoint文件下载到该文件夹下,checkpoint文件可根据自己的需求进行下载,我下载的是s2anet_r50_fpn_1x_dota_le135-5dfcf396.pth和s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth

运行指令形式如下:
python demo/image_demo.py \
${IMG_ROOT} \
${CONFIG_FILE} \
${CHECKPOINT_FILE} \
${OUT_FILE}IMG_ROOT:为待检测图像
CONFIG_FILE:为配置文件
CHECKPOINT_FILE:为训练好的权重。OUT_FILE:输出图片的保存zaizh
输入以下指令:
python ./demo/image_demo.py ./demo/demo.jpg ./configs/s2anet/s2anet_r50_fpn_fp16_1x_dota_le135.py ./checkpoint/s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth --out-file ./demo/result.jpg
应该正常运行的,但是出现了错误(如果运行正常,会在demo文件夹下看到结果result.jpg):


有可能是在开始安装mmcv-full的时候,没有指定版本,选择直接安装,如下:
pip install mmcv-full
采用这样默认安装mmcv-full的方式,如果与你环境里的cuda和torch版本不匹配,就容易出现上面报错,卸载掉原来的mmcv。
pip uninstall mmcv-full
打开mmcv,点击下图已经建立好的对应版本,进行安装。

我的是torch1.7.0 cuda10.1,对应的install形式如下:
pip install mmcv-full=={mmcv_version} -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7.0/index.html
需要指定mmcv_version,前面报错有提示: Please install mmcv>=1.4.5, <=1.6.0,故选择1.6.0进行安装
pip install mmcv-full==1.6.0 -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7.0/index.html
安装完成后,输入指令再次进行测试:
python ./demo/image_demo.py ./demo/demo.jpg ./configs/s2anet/s2anet_r50_fpn_fp16_1x_dota_le135.py ./checkpoint/s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth --out-file ./demo/result.jpg
原图与输出结果的对比;


使用的工具是rolabelimg,rolabelimg安装过程太过繁琐,为了节省精力,已提供rolabelimg.exe,可自行下载
链接:https://pan.baidu.com/s/1j9uV-_2zYC7pb6YTzaeLXQ 提取码:qxmg
为了进行后续操作,新建data文件夹,在data文件夹下新建DOTA文件夹,将标注好的数据放到DOTA文件夹下
新建voc2dota.py文件,将xml标签转换为DOTA的标签,注意代码中的图片和标签地址,以及图片格式,根据实际情况自行修改
# 将xml格式的标签转化为txt格式,并输出标注好的图片
import os
import xml.etree.ElementTree as ET
import math
import cv2 as cv
def voc_to_dota(xml_path, xml_name):
txt_name = xml_name[:-4] + '.txt'
txt_path = xml_path[:-4] + '/txt_label'
if not os.path.exists(txt_path):
os.makedirs(txt_path)
txt_file = os.path.join(txt_path, txt_name)
file_path = os.path.join(xml_path, file_list[i])
tree = ET.parse(os.path.join(file_path))
root = tree.getroot()
# print(root[6][0].text)
image_path = '../data/DOTA/images/'
out_path = '../data/DOTA/outputImg/'
filename = image_path + xml_name[:-4] + '.Jpeg'
img = cv.imread(filename)
with open(txt_file, "w+", encoding='UTF-8') as out_file:
# out_file.write('imagesource:null' + '\n' + 'gsd:null' + '\n')
for obj in root.findall('object'):
name = obj.find('name').text
difficult = obj.find('difficult').text
# print(name, difficult)
robndbox = obj.find('robndbox')
cx = float(robndbox.find('cx').text)
cy = float(robndbox.find('cy').text)
w = float(robndbox.find('w').text)
h = float(robndbox.find('h').text)
angle = float(robndbox.find('angle').text)
# print(cx, cy, w, h, angle)
p0x, p0y = rotatePoint(cx, cy, cx - w / 2, cy - h / 2, -angle)
p1x, p1y = rotatePoint(cx, cy, cx + w / 2, cy - h / 2, -angle)
p2x, p2y = rotatePoint(cx, cy, cx + w / 2, cy + h / 2, -angle)
p3x, p3y = rotatePoint(cx, cy, cx - w / 2, cy + h / 2, -angle)
# 找最左上角的点
dict = {p0y:p0x, p1y:p1x, p2y:p2x, p3y:p3x}
list = find_topLeftPopint(dict)
#print((list))
if list[0] == p0x:
list_xy = [p0x, p0y, p1x, p1y, p2x, p2y, p3x, p3y]
elif list[0] == p1x:
list_xy = [p1x, p1y, p2x, p2y, p3x, p3y, p0x, p0y]
elif list[0] == p2x:
list_xy = [p2x, p2y, p3x, p3y, p0x, p0y, p1x, p1y]
else:
list_xy = [p3x, p3y, p0x, p0y, p1x, p1y, p2x, p2y]
# 在原图上画矩形 看是否转换正确
cv.line(img, (int(list_xy[0]), int(list_xy[1])), (int(list_xy[2]), int(list_xy[3])), color=(255, 0, 0), thickness=3)
cv.line(img, (int(list_xy[2]), int(list_xy[3])), (int(list_xy[4]), int(list_xy[5])), color=(0, 255, 0), thickness= 3)
cv.line(img, (int(list_xy[4]), int(list_xy[5])), (int(list_xy[6]), int(list_xy[7])), color=(0, 0, 255), thickness = 2)
cv.line(img, (int(list_xy[6]), int(list_xy[7])), (int(list_xy[0]), int(list_xy[1])), color=(255, 255, 0), thickness = 2)
cv.imwrite(out_path + xml_name[:-4] + '.Jpeg', img)
data = str(list_xy[0]) + " " + str(list_xy[1]) + " " + str(list_xy[2]) + " " + str(list_xy[3]) + " " + \
str(list_xy[4]) + " " + str(list_xy[5]) + " " + str(list_xy[6]) + " " + str(list_xy[7]) + " "
data = data + name + " " + difficult + "\n"
out_file.write(data)
def find_topLeftPopint(dict):
dict_keys = sorted(dict.keys()) # y值
temp = [dict[dict_keys[0]], dict[dict_keys[1]]]
minx = min(temp)
if minx == temp[0]:
miny = dict_keys[0]
else:
miny = dict_keys[1]
return [minx, miny]
# 转换成四点坐标
def rotatePoint(xc, yc, xp, yp, theta):
xoff = xp - xc
yoff = yp - yc
cosTheta = math.cos(theta)
sinTheta = math.sin(theta)
pResx = cosTheta * xoff + sinTheta * yoff
pResy = - sinTheta * xoff + cosTheta * yoff
# pRes = (xc + pResx, yc + pResy)
# 保留一位小数点
return float(format(xc + pResx, '.1f')), float(format(yc + pResy, '.1f'))
# return xc + pResx, yc + pResy
if __name__ == '__main__':
root_path = '../data/DOTA/xml'
file_list = os.listdir(root_path)
for i in range(0, len(file_list)):
if ('.xml' in file_list[i]) or ('.XML' in file_list[i]):
voc_to_dota(root_path, file_list[i])
print('----------------------------------------{}{}----------------------------------------'
.format(file_list[i], ' has Done!'))
else:
print(file_list[i] + ' is not xml file')
运行成功后,会生成txt_label文件

tools/misc/browse_dataset.py帮助用户浏览检测的数据集(包括图像和检测框的标注),或将图像
保存到指定目录,指令形式如下:
python tools/misc/browse_dataset.py ${CONFIG} [-h] [--skip-type ${SKIP_TYPE[SKIP_TYPE.
,→..]}] [--output-dir ${OUTPUT_DIR}] [--not-show] [--show-interval ${SHOW_INTERVAL}]
python tools/misc/browse_dataset.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py --output-dir out
运行成功后,在mmrotate/out文件下可以看到标注好的图片,以检验转换是否成功
将上述数据集分成 train、test、val 、trainval等几部分(我是手动划分的:train 80%,test 10%,val 10%)以便于训练,其中每个部分的文件夹下都包含有 images(图像) 和 labelTxt(对应的txt标签)


将 train、test、val 中的图片进行裁剪,在mmrotate/tools/data/dota/split/ 路径下img_split.py文件(裁剪脚本) 以及 mmrotate/tools/data/dota/split/split_configs/ 路径下的配置文件,其文件内容就是img_split.py的配置信息,我们需要修改其中的参数,让其加载上述的train、test、val中的图像及标签,并进行裁剪,以ss_train.json为例,需要修改的地方有图片地址,标签地址,分割后保存地址,以及保存图片的格式(若按照前面的操作设置文件名,则无需进行修改,只需要注意图片格式),ss_test.json和ss_val.json的修改同理
修改完上述文件后,运行如下指令,进行数据裁剪:
python tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_train.json
python tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_test.json
python tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_val.json
python tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_trainval.json
裁剪完后的数据集路径为mmrotate/data/split_ss_dota,结果如下:


数据集准备好之后,接下来,需要修改训练相关的配置信息:
以s2anet_r50_fpn_1x_dota_le135.py为例,将其中的num_classes=15改成num_classes=1(根据自己数据集的类别数量进行修改)

同时,修改 mmrotate/mmrotate/datasets/dota.py 文件中的类别名称,注意只有一个类别时不要去掉逗号,修改图像数据集的后缀


最后,修改训练使用的数据集路径:找到并打开 mmrotate/configs/_base_/datasets/dotav1.py 文件,修改其中的 data_root 路径为自己裁剪的数据集路径

上述配置完成后即可训练,即可进行训练,其他可进行修改的地方如下:
修改线程数、batch_size和测试集标签路径(mmrotate/configs/base/datasets/dotav1.py)

修改训练epoches(mmrotate/configs/_base_/schedules/schedule_1x.py)

注意:有的模型修改schedule_1x.py无效,因为其在继承了schedule_1x.py后进行了改写,例如,oriented_reppoints_r50_fpn_40e_dota_ms_le135.py里对上述参数已进行了设置,用此模型进行训练,只能在oriented_reppoints_r50_fpn_40e_dota_ms_le135.py中修改相应参数,而修改schedule_1x.py无效

修改模型训练的日志打印和load from加载预训练模型(configs/_base_/default_runtime.py),此处特别容易犯错,更换网络进行训练一定要及时替换相应的预训练模型,log_config封装了多个记录器挂钩,并允许设置间隔。现在MMCV支持WandbLoggerHook, MlflowLoggerHook和TensorboardLoggerHook。详细用法可以在官方文档中找到。


python tools/train.py ${CONFIG_FILE} [optional arguments]
--work_dir ${YOUR_WORK_DIR}
训练主要有两个参数: config:使用的模型文件 ; - -work-dir:训练得到的模型及配置信息保存的路径,新建如下路径work-dir/run/s2anet/保存训练结果,输入以下指令进行训练
python tools/train.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py --work-dir work-dir/run/s2anet/


python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [optional arguments]
测试主要有三个参数: config:使用的模型文件 ;checkpoint:训练得到的模型权重文件; --show-dir:预测结果存放的路径。新建如下路径work-dir/run/s2anet/保存测试结果,输入以下指令进行测试
python tools/test.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py work-dir/run/s2anet/latest.pth --show-dir work-dir/output/s2anet/ --eval mAP

运行报错,然后查看了一下test数据集,发现标签文件为空

然后查看mmrotate/tools/data/dota/split/split_configs/ss_test.json文件,会发现没有标签文件路径,这就是造成上述现象的原因(DOTA数据集是在线验证,本地没有标签也可以检测训练效果,自行标注的数据集是离线验证,没有标签无法检测训练效果)

解决办法是在ss_test.json文件中添加上路径,重新进行原数据的分割,或者修改mmrotate/configs/_base_/datasets/dotav1.py为测试集的路径为验证集或训练集路径

然后再输入指令,可得到测试结果,更多测试操作见官方文档
python tools/test.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py work-dir/run/s2anet/latest.pth --show-dir work-dir/output/s2anet/ --eval mAP


测试是为了检验训练效果,得到mAP、FPS等指标,进行模型性能评价,而预测则是将训练好的模型进行部署应用。输入以下指令进行单张图片的预测:
python ./demo/image_demo.py ./demo/00008.Jpeg ./configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py ./work-dir/run/s2anet/latest.pth --out-file ./demo/result.Jpeg
要想实现文件夹下多张图片或者视频的预测,可以参考mmdection的相关资料对demo.py进行修改。
上述是我以S2A为例从环境配置到训练自己的数据集全过程,在实际使用中,如果自己的图片尺寸不是特别大,可以跳过裁剪步骤,直接进行训练。
Welcome to MMRotate’s documentation! — mmrotate 文档
https://mmrotate.readthedocs.io/zh_CN/latest/
复现 S2ANet RTX 2080Ti
http://t.csdn.cn/vwruC
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
很好奇,就使用rubyonrails自动化单元测试而言,你们正在做什么?您是否创建了一个脚本来在cron中运行rake作业并将结果邮寄给您?git中的预提交Hook?只是手动调用?我完全理解测试,但想知道在错误发生之前捕获错误的最佳实践是什么。让我们理所当然地认为测试本身是完美无缺的,并且可以正常工作。下一步是什么以确保他们在正确的时间将可能有害的结果传达给您? 最佳答案 不确定您到底想听什么,但是有几个级别的自动代码库控制:在处理某项功能时,您可以使用类似autotest的内容获得关于哪些有效,哪些无效的即时反馈。要确保您的提
假设我做了一个模块如下:m=Module.newdoclassCendend三个问题:除了对m的引用之外,还有什么方法可以访问C和m中的其他内容?我可以在创建匿名模块后为其命名吗(就像我输入“module...”一样)?如何在使用完匿名模块后将其删除,使其定义的常量不再存在? 最佳答案 三个答案:是的,使用ObjectSpace.此代码使c引用你的类(class)C不引用m:c=nilObjectSpace.each_object{|obj|c=objif(Class===objandobj.name=~/::C$/)}当然这取决于
我正在尝试使用ruby和Savon来使用网络服务。测试服务为http://www.webservicex.net/WS/WSDetails.aspx?WSID=9&CATID=2require'rubygems'require'savon'client=Savon::Client.new"http://www.webservicex.net/stockquote.asmx?WSDL"client.get_quotedo|soap|soap.body={:symbol=>"AAPL"}end返回SOAP异常。检查soap信封,在我看来soap请求没有正确的命名空间。任何人都可以建议我
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。
我在我的项目目录中完成了compasscreate.和compassinitrails。几个问题:我已将我的.sass文件放在public/stylesheets中。这是放置它们的正确位置吗?当我运行compasswatch时,它不会自动编译这些.sass文件。我必须手动指定文件:compasswatchpublic/stylesheets/myfile.sass等。如何让它自动运行?文件ie.css、print.css和screen.css已放在stylesheets/compiled。如何在编译后不让它们重新出现的情况下删除它们?我自己编译的.sass文件编译成compiled/t
我想将html转换为纯文本。不过,我不想只删除标签,我想智能地保留尽可能多的格式。为插入换行符标签,检测段落并格式化它们等。输入非常简单,通常是格式良好的html(不是整个文档,只是一堆内容,通常没有anchor或图像)。我可以将几个正则表达式放在一起,让我达到80%,但我认为可能有一些现有的解决方案更智能。 最佳答案 首先,不要尝试为此使用正则表达式。很有可能你会想出一个脆弱/脆弱的解决方案,它会随着HTML的变化而崩溃,或者很难管理和维护。您可以使用Nokogiri快速解析HTML并提取文本:require'nokogiri'h
我想为Heroku构建一个Rails3应用程序。他们使用Postgres作为他们的数据库,所以我通过MacPorts安装了postgres9.0。现在我需要一个postgresgem并且共识是出于性能原因你想要pggem。但是我对我得到的错误感到非常困惑当我尝试在rvm下通过geminstall安装pg时。我已经非常明确地指定了所有postgres目录的位置可以找到但仍然无法完成安装:$envARCHFLAGS='-archx86_64'geminstallpg--\--with-pg-config=/opt/local/var/db/postgresql90/defaultdb/po