coco

Snipaste截图神器

痴心易碎 提交于 2020-12-22 23:51:42
大家好,我是coco 曾经有位同学 抛给我一个 拷问灵魂的问题 你每天挂着QQ 到底图的啥? 听到这个问题不禁陷入沉思 毕竟作为90后 早已过了挂着QQ 跟别人网恋的年纪 社交软件 为什么没有作为社交? 毕竟微信朋友圈也没有朋友 街口卖的老婆饼也没有老婆 QQ+ 微 信=截图软件 完全没毛病嘛 咱们测试或开发童鞋 很多时候都要用到 截图功能 表情包、Bug截图、对话等等 反正日常工作要用到的截图 都能一截了之 别提有多方便 但是呢 断网时 怎么用QQ截图? 并且呢 有时 QQ截图 像素太低而 模糊不清 更别提在截图上做一些标记 所以今天给大家推荐 一款更上手 功能更强大的 截图软件 👇 界面清爽 操作简单 鼠标一拉 即可打码 支持取色、贴图、翻转 随意调整截图透明度 画笔记、号笔、折线让你各种折腾 方正、 宋体 、 仿宋多种字体任君选择 出错了? 橡皮擦擦掉重来 更多功能 大伙可以去试用一下 都快2021年了 还在用QQ和微信截图吗? 今天的分享:Snipaste截图神器(包括32位、64位) ITester软件测试小栈今日分享 获取内容 Snipaste截图神器 领取方式 截图神器 有图有真相 以上 That's all ITester软件测试小栈 往期内容宠幸 叮—这有一打让你666的测试终极资料包,请查收! 滴滴滴,ITester软件测试小栈所有资源放送!

CVPR 2019 | 告别低分辨率网络,微软提出高分辨率深度神经网络HRNet

爷,独闯天下 提交于 2020-12-18 09:38:09
我爱计算机视觉曾经两次报道HRNet: 1. CVPR2019 | 微软、中科大开源基于深度高分辨表示学习的姿态估计算法 ( 论文出来第二天就向大家推送解读了 ) 2. 分割、检测与定位,高分辨率网络显神威!这会是席卷深度学习的通用结构吗? (HRNet扩展版应用) 事实证明该论文的确影响力很大,已经出现了基于HRNet的工作发布于arXiv。 本文来自 微软研究院AI头条,为论文第一作者自己的解读,希望对大家有帮助。 编者按: 对于视觉识别中的区域层次和像素层次问题,分类网络(如ResNet、VGGNet等)学到的表征分辨率比较低,在此基础上恢复的高分辨率表征空间区分度仍然不够强,使其在对空间精度敏感的任务上很难取得准确的预测结果。为此,微软亚洲研究院视觉计算组提出高分辨率深度神经网络(HRNet),对网络结构做了基础性的改变,由传统的串行连接高低分辨率卷积,改成并行连接高低分辨率卷积,通过全程保持高分辨率和对高低分辨率表征的多次信息交换来学到丰富的高分辨率表征,在多个数据集的人体姿态估计任务中取得了最佳的性能。 前言 视觉识别主要包括三大类问题:图像层次(图像分类),区域层次(目标检测)和像素层次(比如图像分割、人体姿态估计和人脸对齐等)。最近几年,用于图像分类的卷积神经网络成为解决视觉识别问题的标准结构,比如图1所示的LeNet-5

机器学习和计算机视觉的前20个图像数据集

拈花ヽ惹草 提交于 2020-12-16 12:12:56
计算机视觉使计算机能够理解图像和视频的内容。计算机视觉的目标是使人类视觉系统可以完成的任务自动化。 计算机视觉任务包括图像采集,图像处理和图像分析。图像数据可以采用不同的形式,例如视频序列,从多个角度不同的摄像机查看的图像或来自医疗扫描仪的多维数据。 用于计算机视觉训练的图像数据集 Labelme: 由 MIT 计算机科学和人工智能实验室( CSAIL )创建的大型数据集,包含 187,240 张图像, 62,197 条带注释的图像和 658,992 张带标签的对象。 http://labelme.csail.mit.edu/Release3.0/browserTools/php/dataset.php 乐高积木: 通过文件夹和使用 Blender 渲染的计算机对 16 种不同乐高积木进行分类的大约 12,700 张图像。 https://www.kaggle.com/joosthazelzet/lego-brick-images ImageNet: 用于新算法的实际图像数据集。根据 WordNet 层次结构进行组织,其中层次结构的每个节点都以成千上万的图像进行描绘。 http://image-net.org/ LSUN : 场景理解和许多辅助任务(房间布局估计,显着性预测等) http://lsun.cs.princeton.edu/2016/ MS COCO : COCO

阿里云ECS安装 jumpserver1.5.2

谁说胖子不能爱 提交于 2020-12-10 09:26:05
阿里云ECS安装 jumpserver1.5.2 阿里云ECS 公网IP :47.98.237.233 内网IP:172.16.100.255 在“安全组” 开通ECS的相关端口 一. 准备 Python3 和 Python 虚拟环境 yum -y install wget sqlite-devel xz gcc automake zlib-devel openssl-devel epel- release git wget https: // www.python.org/ftp/python/3.6.1/Python-3.6.1.tar.xz tar xvf Python- 3.6 . 1 .tar.xz && cd Python- 3.6 . 1 . /configure && make && make install cd / opt python3 - m venv py3 source /opt/py3/bin/ activate # 看到下面的提示符代表成功,以后运行 Jumpserver 都要先运行以上 source 命令,以下所有命令均在该虚拟环境中运行 (py3) [root@localhost py3] 二. 安装 Jumpserver 1.5.2 2.1 下载或 Clone 项目 项目提交较多 git clone 时较大,你可以选择去 Github

一文读懂YOLO V5 与 YOLO V4

自闭症网瘾萝莉.ら 提交于 2020-11-27 05:46:55
YOLO之父Joseph Redmon在今年年初宣布退出计算机视觉的研究的时候,很多人都以为目标检测神器YOLO系列就此终结。然而在4月23日,继任者YOLO V4却悄无声息地来了。Alexey Bochkovskiy发表了一篇名为YOLOV4: Optimal Speed and Accuracy of Object Detection的文章。YOLO V4是YOLO系列一个重大的更新,其在COCO数据集上的平均精度(AP)和帧率精度(FPS)分别提高了10% 和12%,并得到了Joseph Redmon的官方认可,被认为是当前最强的实时对象检测模型之一。 正当计算机视觉的从业者们正在努力研究YOLO V4的时候,万万没想到,有牛人不服。6月25日,Ultralytics发布了YOLOV5 的第一个正式版本,其性能与YOLO V4不相伯仲,同样也是现今最先进的对象检测技术,并在推理速度上是目前最强。 从上图的结果可以看出,YOLO V5确实在对象检测方面的表现非常出色,尤其是YOLO V5s 模型140FPS的推理速度非常惊艳。 YOLO V5和V4集中出现让很多人都感到疑惑,一是YOLO V5真的有资格能被称作新一代YOLO吗?二是YOLO V5的性能与V4相比究竟如何,两者有啥区别及相似之处? 在本文中我会详细介绍YOLO V5和YOLO V4的原理,技术区别及相似之处

热门的模型跨界,Transformer、GPT做CV任务一文大盘点

那年仲夏 提交于 2020-11-26 13:45:09
作者|陈萍 来源|机器之心 可能大家心里都有一种错误认知,做自然语言处理任务的模型不能够用来进行计算机视觉任务。其实不然,现阶段已出现好多研究,它们通过算法的改进,将在 NLP 领域表现良好的模型,如 Transformer、GPT 等进行改进并应用于视觉任务,不仅实现了模型跨界,而且取得了不错的性能。 模型跨界效果如何呢? 人工智能的快速发展已经淋漓尽致地体现在我们的日常生活中,从人脸识别、语音识别到机器翻译等等,无不展示着 AI 带来的便利。已经落地的产品层出不穷,其后的算法模型你又了解多少呢?有些模型不仅在自己的领域表现出色,更能跨界出圈。 近几年,NLP 领域的算法势如破竹,不断取得新突破,CV 领域同样不断取得创新。新工具、新算法、新算力等不断迭代更新,在各自领域大放异彩。 如果说将 NLP 领域的模型应用到 CV 领域,或反之,那效果该如何呢?模型跨界是否可行? 答案是肯定的。下面我们来盘点一下模型的跨界、破界表现如何?本文介绍的内容包括: 《End-to-End Object Detection with Transformers》:Facebook 将 Transformer 应用于目标检测任务; 《Generative Pretraining from Pixels》:OpenAI 用 GPT-2 做图像分类的尝试; 《LAMBDANETWORKS:

深克隆(拷贝)与浅克隆(拷贝)

旧巷老猫 提交于 2020-11-22 03:07:09
一、什么是克隆钱(拷贝)     在实际编程过程中,我们常常遇到这种情况:有一个对象A,在某一时刻A中已经包含了一些有效值,此时可能会需要一个和A完全相同的新对象B,并且此后对B做任何改动都不会影响到A中的值,也就是说,A与B是两个独立的对象,但是B的初始值是由A对象确定的。在java语言中,用简单的赋值语言是不能满足这种需求的。要满足这种需求虽然有很多途径,但实现clone()方法是其中最简单也是最高效的手段。   Java的所有类都默认继承java.lang.Object类,在java.lang.Object类中有一个方法clone()。JDK API的说明文档解释这个方法将返回Object对象的一个拷贝。要说明的有两点:一是拷贝对象返回的是一个新对象,而不是一个引用。二是拷贝对象与用 new操作符返回的新对象的区别就是这个拷贝已经包含了一些原来对象的信息,而不是对象的初始信息。 二、深拷贝与浅拷贝   浅拷贝是指拷贝对象时仅仅拷贝对象本身(包括对象中的基本变量),而不拷贝对象包含的引用指向的对象。深拷贝不仅拷贝对象本身,而且拷贝对象包含的引用指向的所有对象。举例来说更加清楚:对象A1中包含对B1的引用,B1中包含对C1的引用。浅拷贝A1得到A2,A2 中依然包含对B1的引用,B1中依然包含对C1的引用。深拷贝则是对浅拷贝的递归,深拷贝A1得到A2,A2中包含对B2

Detectron2源码阅读笔记-(三)Dataset pipeline

故事扮演 提交于 2020-11-21 11:17:04
构建data_loader原理步骤 # engine/default.py from detectron2.data import ( MetadataCatalog, build_detection_test_loader, build_detection_train_loader, ) class DefaultTrainer(SimpleTrainer): def __init__(self, cfg): # Assume these objects must be constructed in this order. data_loader = self.build_train_loader(cfg) ... @classmethod def build_train_loader(cls, cfg): """ Returns: iterable """ return build_detection_train_loader(cfg) 函数调用关系如下图: 结合前面两篇文章的内容可以看到detectron2在构建model,optimizer和data_loader的时候都是在对应的 build.py 文件里实现的。我们看一下 build_detection_train_loader 是如何定义的(对应上图中 紫色方框内 的部分( 自下往上 的顺序)): def build

OpenSelfSup: Open-MMLab自监督表征学习代码库

拥有回忆 提交于 2020-11-20 07:08:27
本文转载自知乎,已获作者 授权转载。 https://zhuanlan.zhihu.com/p/148782886 前言 自监督的表征学习领域近几个月来获得了显著的突破,特别是随着Rotation Prediction, DeepCluster, MoCo, SimCLR等简单有效的方法的诞生,大有超越有监督表征学习的趋势。 然而,相信做这个领域的研究者都深有感触: 1)自监督任务复杂而多样,不同方法各有各的专用训练代码,难以结合、复用和改进; 2)评价方案不统一,不同的方法难以在公平环境下对比; 3)动辄百万千万的训练数据量,训练效率是个大问题。 针对这些问题,我们(香港中文大学多媒体实验室和南洋理工大学)开源了一套统一的自监督学习代码库:OpenSelfSup, 链接如下: https://github.com/open-mmlab/OpenSelfSup OpenSelfSup 统一的代码框架和模块化设计 OpenSelfSup使用PyTorch实现,支持基于分类、重建、聚类、memory bank、contrastive learning的多种自监督学习框架, 目前收录了Relative Location, Rotation Prediction, DeepCluster, OnlineDeepCluster, NPID, MoCo, SimCLR

如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?

早过忘川 提交于 2020-11-15 18:16:05
如何理解归一化(Normalization)对于神经网络(深度学习)的帮助? 作者:知乎用户 链接:https://www.zhihu.com/question/326034346/answer/730051338 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 回顾一下围绕normalization的一些工作(由最新到最旧的BatchNorm): 2019, Weight Standardization (没有发表,但是有大佬Alan Yuille加持) Weight Standardization 2019 WS叫权重标准化,建立在 BN可以平滑损失landscape / BN可以平滑激活值 这个观点上,进一步提升GN的效果匹配到BN的水平上,针对GN在micro-batch训练时性能不及BN。WS的原理是: 减小损失和梯度的Lipschitz常数 。 2019, Dynamic Normalization Differentiable Dynamic Normalization for Learning Deep Representation ICML 2019 跟SN类似,加入了GN。 2019, Switchable Normalization Differentiable Learning-to-Normalize via