bbox

Matplotlib table formatting

匿名 (未验证) 提交于 2019-12-03 01:58:03
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: Can't seem to locate in the documentation how to increase the line-height of the cells, as the text itself is very cramped. Any help with code is appreciated! Table formatting doesn't seem to be well documented... # Plot line width matplotlib.rc('lines', linewidth=3) ind = np.arange(len(overall)) fig = pyplot.figure() ax = fig.add_subplot(211) ax.set_title('Overall Rating of Experience') ax.set_ylabel('Score (0-100)') # Plot data on chart plot1 = ax.plot(ind, overall) plot2 = ax.plot(ind, svc_avg) plot3 = ax.plot(ind, benchmark) ax.yaxis

Moving matplotlib legend outside of the axis makes it cutoff by the figure box

匿名 (未验证) 提交于 2019-12-03 01:18:02
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 由 翻译 强力驱动 问题: I'm familiar with the following questions: Matplotlib savefig with a legend outside the plot How to put the legend out of the plot It seems that the answers in these questions have the luxury of being able to fiddle with the exact shrinking of the axis so that the legend fits. Shrinking the axes, however, is not an ideal solution because it makes the data smaller making it actually more difficult to interpret; particularly when its complex and there are lots of things going on ... hence needing a large legend The example of a

matplotlib savefig bbox_inches = 'tight' does not ignore invisible axes

匿名 (未验证) 提交于 2019-12-03 00:55:01
可以将文章内容翻译成中文,广告屏蔽插件可能会导致该功能失效(如失效,请关闭广告屏蔽插件后再试): 问题: When you set bbox_inches = 'tight' in Matplotlib's savefig() function, it tries to find the tightest bounding box that encapsulates all the content in your figure window. Unfortunately, the tightest bounding box appears to include invisible axes. For example, here is a snippet where setting bbox_inches = 'tight' works as desired: import matplotlib.pylab as plt fig = plt.figure(figsize = (5,5)) data_ax = fig.add_axes([0.2, 0.2, 0.6, 0.6]) data_ax.plot([1,2], [1,2]) plt.savefig('Test1.pdf', bbox_inches = 'tight', pad_inches = 0) which produces

Faster R-CNN 安装并运行 demo + 训练和测试 VOC 格式数据集

匿名 (未验证) 提交于 2019-12-03 00:34:01
首先要安装 caffe 和 pycaffe,安装过程可参考我的 上一篇博文 在安装并运行 Faster R-CNN demo,训练和测试自己的 VOC 数据集中也出现了各种各样的问题,但大多数问题都是因为 Faster R-CNN 本身和其他各种依赖项之间的兼容问题,大概是因为我安装的 CUDA,cuDNN 等其他一些依赖项的版本比较高造成的。 Faster R-CNN 安装并运行 demo 其 Github 上也有比较详细的安装过程可供参考, 传送门 : 1. 下载 Faster R-CNN,编译 Cython 模块 git clone -- recursive https : // github.com/rbgirshick/py-faster-rcnn.git cd py - faster - rcnn / lib make 2. 创建 Makefile.config 文件,打开并修改,修改方式和 Caffe 中的修改方式一样,可参考我的 上一篇博文 cd py - faster - rcnn / caffe - fast - rcnn cp Makefile . config . example Makefile . config 替换 py-faster-rcnn/caffe-fast-rcnn/include/caffe/util 里的 cudnn.hpp 为最新版

将wierface标注转换为VOC格式

匿名 (未验证) 提交于 2019-12-03 00:27:02
widerface 是包含了3万多张总计近40万张人脸的人脸检测库,里面包含了大大小小各式各样的人脸,是不可多得的素材。 请将下面的代码保存至widerface.py,并至于下图所示的eval_tools文件夹下,其他的文件结构一并如图所示。 Update: 由于widerface里包含很多小脸,用SSD训练不一定能收敛,此外SSD要求输入为方形,不然会挤压图片造成变形,因此需要对此做些处理. [cpp] view plain copy print ? [python] view plain copy print ? [python] view plain copy print ? import import from import rootdir= ”../” convet2yoloformat= True convert2vocformat= True resized_dim=( 48 48 #最小取20大小的脸,并且补齐 minsize2select= 20 usepadding= True datasetprefix= ”/home/yanhe/data/widerface” # def ”/WIDER_train/images” ”/wider_face_split/wider_face_train_bbx_gt.txt” 0 ’r’ while ( True 1 if

fater-rcnn绘制loss图

匿名 (未验证) 提交于 2019-12-03 00:26:01
py-fater-rcnn根据生成的log文件绘制loss图。 一般输出是下图中的第一幅图(对应位置为2,5,1),但本身并没有多大的意义,只有将其平均之后如(对应位置为2,5,6),才能看出loss是否还在下降。 # -*- coding: utf-8 -*- """ Created on Wed Jun 13 09:58:00 2018 @author: ygx """ # -*- coding:utf-8 -*- # !/usr/bin/env python import matplotlib.pyplot as plt f1=open('faster_rcnn_end2end_VGGcp_.txt.2018-06-12_17-51-16','r') lines=f1.readlines() i=0 Iteration=[] loss=[] loss_bbox=[] loss_cls=[] rpn_cls_loss=[] rpn_loss_bbox=[] for line in lines: if line.find('solver.cpp:229] Iteration')>0: Iteration.append(int(line.split('Iteration ')[1].split()[0].split(',')[0])) loss.append(float(line

深度学习笔记-计算机视觉

匿名 (未验证) 提交于 2019-12-03 00:05:01
本文不阐述各个知识点具体内容,只给出代码实现和理解,其中涉及到的知识点如下 matplotlib画图 锚框的概念和实现 交并比 偏移量 非极大值抑制 目标检测和边框值 import d2lzh as d2l from mxnet import image d2l . set_figsize ( ) img = image . imread ( 'img/catdog.jpg' ) . asnumpy ( ) # 边界框(bounding_box) dog_bbox , cat_bbox = [ 60 , 45 , 378 , 516 ] , [ 400 , 112 , 655 , 493 ] # bbox_to_reat 将边界框表示成matplotlib的边界形式 def bbox_to_rect ( bbox , color ) : # 左上x,左上y,右下x,右下y # ((左上x,左上y),宽,高) return d2l . plt . Rectangle ( xy = ( bbox [ 0 ] , bbox [ 1 ] ) , width = bbox [ 2 ] - bbox [ 0 ] , height = bbox [ 3 ] - bbox [ 1 ] , fill = False , edgecolor = color , linewidth = 2 # 不填充

机器学习之IOU

匿名 (未验证) 提交于 2019-12-02 23:34:01
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zlyaxixuexi/article/details/90313680 Intersection Over Union(IOU)是以中测量在特定数据集中检测相应物体准确度的一个指标或者标准。 IoU是一个简单的测量标准,只要是在输出中得到一个预测范围(bounding box)的任务都可以用IoU来进行测量。 其字面意思就是交并比,实际应用中是预测的bbox和实际的bbox的交集的面积和并集的面积的比值,如下图所示: 文章来源: https://blog.csdn.net/zlyaxixuexi/article/details/90313680

跑 Faster-RCNN 出现:RuntimeWarning: invalid value encountered in greater_equal 等这样的warning

匿名 (未验证) 提交于 2019-12-02 22:56:40
但是可能会出现这样或者类似的warning: RuntimeWarning: invalid value encountered in true_divide RuntimeWarning: invalid value encountered in greater_equal ... 接着可能就会出现loss = nan的情况,且一直不见好转 通过一步步调试和网上搜集,发现可能的原因: 就是 这篇博客 给出的原因,具体讨论也可以参照 rbg大佬github官方issue 。 由于我们更换了数据集,所以在制作自己的数据集的annotation时候,可能会出现bbox的宽w和高h为0的情况,这样导致在代码中计算偏移的时候, 或者 为负无穷大。 这样求得的rpn_loc和gt_rpn_loc算rpn loss的时候会使得loss = nan 具体做法:尝试修改rpn网络中把anchor转location的地方添加一个限制,即限制 和 不能太小 参考代码: BBOX_XFORM_CLIP = np.log(bbox_min / img_max) # bbox: 16 img_max: 1000 tw = np.maximum(tw, BBOX_XFORM_CLIP) th = np.maximum(th, BBOX_XFORM_CLIP) 其中bbox

draw_image

拜拜、爱过 提交于 2019-12-02 22:42:47
def draw_bbox(image, bboxes, class_i, show_label=True): # 将中心点坐标与w,h通过变化为左上角与右下角坐标 bboxes_change = np.copy(bboxes) bboxes[:,0:2]=bboxes_change[:,0:2]-0.5*bboxes_change[:,2:4] bboxes[:, 0:2] = bboxes_change[:, 0:2] + 0.5 * bboxes_change[:, 2:4] """ bboxes: [x_min, y_min, x_max, y_max] format coordinates. """ image_h, image_w, _ = image.shape hsv_tuples = [(1.0 * x / 90, 1., 1.) for x in range(90)] colors = list(map(lambda x: colorsys.hsv_to_rgb(*x), hsv_tuples)) colors = list(map(lambda x: (int(x[0] * 255), int(x[1] * 255), int(x[2] * 255)), colors)) for i, bbox in enumerate(bboxes): coor = np