Mask_RCNN

ubuntu Tensorflow object detection API 开发环境搭建

我与影子孤独终老i 提交于 2020-05-04 23:40:00
https://blog.csdn.net/dy_guox/article/details/79111949 luo@luo-All-Series:~$ luo@luo-All-Series:~$ source activate t20190518 (t20190518) luo@luo-All-Series:~$ (t20190518) luo@luo-All-Series:~$ (t20190518) luo@luo-All-Series:~$ (t20190518) luo@luo-All-Series:~$ (t20190518) luo@luo-All-Series:~$ (t20190518) luo@luo-All-Series:~$ ls 4.15.0-47-generic-hid-sensor-accel-3d.ko anaconda3 examples.desktop librealsense Public Videos 4.15.0-47-generic-hid-sensor-gyro-3d.ko Desktop Figure_1.png Music PycharmProjects 4.15.0-47-generic-uvcvideo.ko Documents Figure_2.png MyFile snap 4.15.0-47-generic

MMDetection 基准测试 和 Model Zoo | 三

陌路散爱 提交于 2020-05-03 22:25:01
作者|open-mmlab 编译|Flin 来源|Github 基准测试 和 Model Zoo 环境 硬件 8 个 NVIDIA Tesla V100 GPUs Intel Xeon 4114 CPU @ 2.20GHz 软件环境 Python 3.6 / 3.7 PyTorch 1.1 CUDA 9.0.176 CUDNN 7.0.4 NCCL 2.1.15 镜像站点 我们使用AWS作为托管model zoo的主要站点,并在阿里云上维护镜像。 你可以在模型网址中把 https://s3.ap-northeast-2.amazonaws.com/open-mmlab替换为https://open-mmlab.oss-cn-beijing.aliyuncs.com。 常用设置 所有FPN基准和RPN-C4基准均使用8个GPU进行训练,批处理大小为16(每个GPU 2张图像)。其他C4基线使用8个批处理大小为8的GP​​U进行了训练(每个GPU 1张图像)。 所有模型都在 coco_2017_train 上训练以及在 coco_2017_val 测试。 我们使用分布式训练,并且BN层统计信息是固定的。 我们采用与Detectron相同的训练时间表。1x表示12个epoch,而2x表示24个epoch,这比Detectron的迭代次数略少,并且可以忽略不计。

MMDetection 入门 | 二

|▌冷眼眸甩不掉的悲伤 提交于 2020-04-21 16:17:48
作者|open-mmlab 编译|Flin 来源|Github 入门 本页提供有关MMDetection用法的基本教程。 有关安装说明,请参阅上一篇的安装文档 。 预训练模型的推论 我们提供测试脚本来评估整个数据集(COCO,PASCAL VOC等)以及一些高级api,以便更轻松地集成到其他项目。 测试数据集 [x]单个GPU测试 [x]多个GPU测试 [x]可视化检测结果 你可以使用以下命令测试数据集。 #单GPU测试 python tools / test.py $ {CONFIG_FILE} $ {CHECKPOINT_FILE} [--out $ {RESULT_FILE}] [--eval $ {EVAL_METRICS}] [--show] #多GPU测试 ./tools/dist_test.sh $ {CONFIG_FILE} $ {CHECKPOINT_FILE} $ {GPU_NUM} [--out $ {RESULT_FILE}] [--eval $ {EVAL_METRICS}] 可选参数: RESULT_FILE :输出结果的文件名是pickle格式。如果未指定,结果将不会保存到文件中。 EVAL_METRICS :要根据结果评估的项目。允许的值取决于数据集,例如 proposal_fast , proposal , bbox , segm 可用于COCO和

MMDetection 安装 | 一

旧城冷巷雨未停 提交于 2020-04-18 18:18:59
作者|open-mmlab 编译|Flin 来源|Github 引言 MMDetection是一款优秀的基于PyTorch的深度学习目标检测工具箱,由香港中文大学(CUHK)多媒体实验室(mmlab)开发。基本上支持所有当前SOTA二阶段的目标检测算法,比如faster rcnn,mask rcnn,r-fcn,Cascade-RCNN等。读者可在 PyTorch 环境下测试不同的预训练模型及训练新的检测分割模型。 根据 GitHub 项目所述,MMDetection的主要特征可以总结为以下几个方面: 模块化设计:将检测或者分割任务分解成几个模块,通过模块的组合即可完成相应的任务。 支持多个框架,开箱即用:该工具包直接支持多种流行的检测框架,如 Faster RCNN、Mask RCNN、RetinaNet 等。 高效:所有基础边界框和掩码运算都在 GPU 上运行。不同模型的训练速度大约比 FAIR 的 Detectron 快 5% ~ 20%。 技术发展水平: 达到了目前最先进的水平。 翻译过程中难免有所疏漏,如发现错误,希望大家指出,谢谢支持。 目录 MMDetection安装 了解如何在计算机上安装MMDetection MMDetection入门 学习有关MMDetection用法的基本教程。 基准测试和model zoo 介绍各种模型的训练环境和基准测试

PaddlePaddle/PaddleDetection

风格不统一 提交于 2020-04-17 03:42:32
【推荐阅读】微服务还能火多久?>>> English | 简体中文 PaddleDetection PaddleDetection的目的是为工业界和学术界提供丰富、易用的目标检测模型。不仅性能优越、易于部署,而且能够灵活的满足算法研究的需求。 目前检测库下模型均要求使用PaddlePaddle 1.7及以上版本或适当的develop版本。 简介 特性: 易部署: PaddleDetection的模型中使用的核心算子均通过C++或CUDA实现,同时基于PaddlePaddle的高性能推理引擎可以方便地部署在多种硬件平台上。 高灵活度: PaddleDetection通过模块化设计来解耦各个组件,基于配置文件可以轻松地搭建各种检测模型。 高性能: 基于PaddlePaddle框架的高性能内核,在模型训练速度、显存占用上有一定的优势。例如,YOLOv3的训练速度快于其他框架,在Tesla V100 16GB环境下,Mask-RCNN(ResNet50)可以单卡Batch Size可以达到4 (甚至到5)。 支持的模型结构: ResNet ResNet-vd 1 ResNeXt-vd SENet MobileNet HRNet Res2Net Faster R-CNN ✓ ✓ x ✓ ✗ ✗ ✗ Faster R-CNN + FPN ✓ ✓ ✓ ✓ ✗ ✓ ✓ Mask R-CNN ✓ ✓

使用mask scoring RCNN训练自己的数据集

半腔热情 提交于 2020-04-12 17:22:22
本文主要参考下面两篇博文,并在部分细节处做了修改。 https://blog.csdn.net/XX_123_1_RJ/article/details/102733175?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task https://blog.csdn.net/linolzhang/article/details/97833354 一、数据集准备 (训练集验证集测试集的数据分别准备) 1、标注数据集 大多数人会用labelme来标注数据集,然后用labelme将每张标注图片都生成一个json文件。labelme教程网上很多,这里不再赘述。 本人由于原图的标注目标很小,用labelme标注未免不精确,所以先用PS手动标注后再写代码把标注图转换成了labelme格式的json文件。 结果如图: 2、将这些json文件转换成coco格式 这一步我使用如下代码可成功转换。 # -*- coding:utf-8 -*- import os, sys import argparse import json import matplotlib.pyplot as plt import skimage.io as io from labelme

使用mask scoring RCNN训练自己的数据集

。_饼干妹妹 提交于 2020-04-12 17:07:45
本文主要参考下面两篇博文,并在部分细节处做了修改。 https://blog.csdn.net/XX_123_1_RJ/article/details/102733175?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task https://blog.csdn.net/linolzhang/article/details/97833354 一、数据集准备 (训练集验证集测试集的数据分别准备) 1、标注数据集 大多数人会用labelme来标注数据集,然后用labelme将每张标注图片都生成一个json文件。labelme教程网上很多,这里不再赘述。 本人由于原图的标注目标很小,用labelme标注未免不精确,所以先用PS手动标注后再写代码把标注图转换成了labelme格式的json文件。 结果如图: 2、将这些json文件转换成coco格式 这一步我使用如下代码可成功转换。 # -*- coding:utf-8 -*- import os, sys import argparse import json import matplotlib.pyplot as plt import skimage.io as io from labelme

车牌识别-Mask_RCNN定位车牌+手写方法分割字符+CNN单个字符识别

北战南征 提交于 2020-04-09 19:47:03
simple-car-plate-recognition 简单车牌识别-Mask_RCNN定位车牌+手写方法分割字符+CNN单个字符识别 数据准备 准备用于车牌定位的数据集,要收集250张车辆图片,200张用于训练,50张用于测试,然后在这些图片上标注出车牌区域。这里有图片 https://gitee.com/easypr/EasyPR/tree/master/resources/image/general_test 。标注工具使用VGG Image Annotator (VIA),就是一个网页程序,可以导入图片,使用多边形标注,标注好了以后,导出json。我已经标注好的数据集可以从这里下载 https://github.com/airxiechao/simple-car-plate-recognition/blob/master/dataset/carplate.zip ,用7zip解压。 准备用于字符识别的数据集,包含分隔好的单个车牌汉子、字母和数字。这里有 https://gitee.com/easypr/EasyPR/blob/master/resources/train/ann.7z 。 训练Mask-RCNN定位车牌 这篇文章 https://engineering.matterport.com/splash-of-color-instance-segmentation

基于Faster RCNN的螺丝螺母的检测

佐手、 提交于 2020-04-09 19:19:54
简介 区域卷积神经网络(RCNN)系列模型为两阶段目标检测器。通过对图像生成候选区域,提取特征,判别特征类别并修正候选框位置。 RCNN系列目前包含两个代表模型:Faster RCNN,Mask RCNN Faster RCNN 整体网络可以分为4个主要内容: 基础卷积层。作为一种卷积神经网络目标检测方法,Faster RCNN首先使用一组基础的卷积网络提取图像的特征图。特征图被后续RPN层和全连接层共享。本示例采用 ResNet-50 作为基础卷积层。 区域生成网络(RPN)。RPN网络用于生成候选区域(proposals)。该层通过一组固定的尺寸和比例得到一组锚点(anchors), 通过softmax判断锚点属于前景或者背景,再利用区域回归修正锚点从而获得精确的候选区域。 RoI Align。该层收集输入的特征图和候选区域,将候选区域映射到特征图中并池化为统一大小的区域特征图,送入全连接层判定目标类别, 该层可选用RoIPool和RoIAlign两种方式,在config.py中设置roi_func。 检测层。利用区域特征图计算候选区域的类别,同时再次通过区域回归获得检测框最终的精确位置。 faster-rcnn模型结构图如下: 注:本例默认用GPU运行,也可通过设置--use_gpu=False使用CPU设备。 阅读本项目之前建议阅读faster-rcnn原版论文 https