caffe

RoIPooling、RoIAlign笔记

非 Y 不嫁゛ 提交于 2020-11-21 03:19:29
一)、RoIPooling 这个可以在Faster RCNN中使用以便使生成的候选框region proposal映射产生固定大小的feature map 先贴出一张图,接着通过这图解释RoiPooling的工作原理 针对上图 1)Conv layers使用的是VGG16,feat_stride=32(即表示,经过网络层后图片缩小为原图的1/32),原图800*800,最后一层特征图feature map大小:25*25 2)假定原图中有一region proposal,大小为665*665,这样,映射到特征图中的大小:665/32=20.78,即20.78*20.78,如果你看过Caffe的Roi Pooling的C++源码,在计算的时候会进行取整操作,于是,进行所谓的 第一次量化 ,即映射的特征图大小为20*20 3)假定pooled_w=7,pooled_h=7,即pooling后固定成7*7大小的特征图,所以,将上面在 feature map上映射的20*20的 region proposal划分成49个同等大小的小区域,每个小区域的大小20/7=2.86,即2.86*2.86,此时,进行 第二次量化, 故小区域大小变成2*2 4)每个2*2的小区域里,取出其中最大的像素值,作为这一个区域的‘代表’,这样,49个小区域就输出49个像素值,组成7*7大小的feature

AI性能最高提升20倍 阿里云新一代GPU云服务器亮相 搭载NVIDIA A100

南楼画角 提交于 2020-11-17 14:11:26
近日,阿里云异构计算宣布上线gn7 GPU系列云服务器,即日起开放售卖。gn7系列实例是阿里云新一代GPU计算实例,主要面向AI训练和高性能计算应用。该产品基于NVIDIA A100 Tensor Core GPU打造,云服务器中的8块A100 GPU以NVIDIA NVSwitch实现了GPU之间的NVLink直接通信。 结合最新支持的Tensor Core加速能力,阿里云gn7云服务器最高可让AI最佳性能提升20倍,高性能计算速度提升2.5倍,单卡最高支持19.5TFlops(FP64)、156TFlops (TF32)、312 TFlops(FP16 混合精度)的运算。对于大模型训练的场景,阿里云自研的神龙AI加速引擎AIACC可以通过优化多GPU训练通信效率,进一步提升多GPU和多机并行训练的加速比,为AI研发过程节省更多的时间和成本。 第一批上线的产品为效率最高的阿里云神龙裸金属实例ebmgn7, 用户可直接获得一台完整的配置有Intel 2代Xeon Scalable 52核CPU、768G系统内存和由 NVSwitch互联的8颗A100 的GPU服务器主机。 随着人工智能的不断发展,深度学习的训练模型越来越庞大和复杂,训练模型需要的算力也在快速增长。针对AI训练和高性能计算的算力需求,NVIDIA于今年5月推出了 A100 GPU。NVIDIA A100

【论文阅读】Learning a Deep Convolutional Network for Image Super-Resolution

不打扰是莪最后的温柔 提交于 2020-11-11 05:19:49
题目:学习深度卷积神经网络实现图像超分辨率 ECCV 2014 收录 摘要: 我们提出了一种单张图像超分辨率(SR)的深度学习方法。我们的方法直接学习低/高分辨率图像之间的端到端映射。该映射表示为一个深卷积神经网络(CNN)[15],它以低分辨率图像为输入输出高分辨率图像。我们进一步证明了 传统的稀疏编码SR方法 也可以看作是一个深度卷积网络。但不同于传统的方法去单独处理每个组件,我们的方法联合优化所有层。我们的深度CNN是一个轻量级的架构,展示了最先进的修复质量,并实现了快速的在线应用。 ----------------------------------------- 代码地址:https://github.com/tegg89/SRCNN-Tensorflow 基于TensorFlow 其他地址:http://mmlab.ie.cuhk.edu.hk/projects/SRCNN.html 基于matlab和caffe ----------------------------------------- 优点: 网络结构十分简单,仅仅用了三个卷积层,框架在选择参数时很灵活,可以采用四层或更多层,更大的过滤尺寸来进一步提高性能。 缺点: SRCNN针对的是单个尺度因子进行训练,如果需要新的规模,则必须对新模型进行训练。特征提取只用了一层卷积层,存在着感受野较小的问题

阿里副总裁"人设"翻车:30岁成AI顶尖科学家,但我很懒

爱⌒轻易说出口 提交于 2020-10-15 01:50:51
贾扬清一度担心自己毕业就失业。 当他站在台上,以阿里巴巴副总裁的身份开始演讲时,世界开始认识这个年仅35岁的年轻人。 如果走在马路上,或者在杭州街边,你遇见他,他可能跟其他程序员一样,格子衫、双肩包和一张羞赧的笑脸。 看上去他普通的不能再普通了,如果你知道他的经历,一定惊为天人。 01、清华也沮丧 刚从学校毕业,贾扬清就进了谷歌,头上顶着研究科学家的光环,埋头搞AI。 谷歌呆了两年,跳槽Facebook,做了AI架构总监。 Google、Facebook、亚马逊,科技圈里的明星企业,也被称为“顶尖科学家收割机”,更是公认硅谷薪水最高的公司。 当AI圈里的人还在争论,贾扬清会不会回来报效祖国,他已经悄悄成了阿里副总裁,花名——去掉偏旁三点水:扬青。 写代码,38岁并不是最好的年纪。不是整日担忧中年危机的降临,就是担心头顶仅存的稀疏头发。 贾扬清今年38岁,头发依然茂密,中年似乎没有危机,只有转机。 1982年,贾扬清出生于绍兴上虞,父母都是中学语文老师。 老师的孩子不一定爱读书,但一定会寂寞。别的孩子回家有父母,但老师的孩子只有老师。 在那个没有网络的年代,看书是满足对世界好奇的唯一方法。学会识字,贾扬清就经常一个人安静看书。 还在上小学,母亲就曾给他写过一封家书: “每个人都要做好自己的事情,父母亲要教好书,你读好书,求得真知识; 所有教你的老师都是优秀的,教育学生绰绰有余;

Spark如何与深度学习框架协作,处理非结构化数据

喜夏-厌秋 提交于 2020-10-03 17:26:00
随着大数据和AI业务的不断融合,大数据分析和处理过程中,通过深度学习技术对非结构化数据(如图片、音频、文本)进行大数据处理的业务场景越来越多。本文会介绍Spark如何与深度学习框架进行协同工作,在大数据的处理过程利用深度学习框架对非结构化数据进行处理。 Spark介绍 Spark是大规模数据处理的事实标准,包括机器学习的操作,希望把大数据处理和机器学习管道整合。 Spark使用函数式编程范式扩展了MapReduce模型以支持更多计算类型,可以涵盖广泛的工作流。Spark使用内存缓存来提升性能,因此进行交互式分析也足够快速(如同使用Python解释器,与集群进行交互一样)。 缓存同时提升了迭代算法的性能,这使得Spark非常适合机器学习。 由于Spark库提供了Python、Scale、Java编写的API,以及内建的机器学习、流数据、图算法、类SQL查询等模块;Spark迅速成为当今最重要的分布式计算框架之一。与YARN结合,Spark提供了增量,而不是替代已存在的Hadoop集群。在最近的Spark版本中,Spark加入了对于K8s的支持,为Spark与AI能力的融合提供了更好的支持。 深度学习框架介绍 TensorFlow TensorFlow最初是由Google机器智能研究部门的Google Brain团队开发,基于Google

Caffe搭建:常见问题解决办法和ubuntu使用中遇到问题(持续更新)

耗尽温柔 提交于 2020-10-03 03:37:08
Caffe搭建:常见问题解决办法和ubuntu使用中遇到问题(持续更新) 参考文章: (1)Caffe搭建:常见问题解决办法和ubuntu使用中遇到问题(持续更新) (2)https://www.cnblogs.com/empty16/p/4828476.html 备忘一下。 来源: oschina 链接: https://my.oschina.net/u/4277979/blog/4608520

Tensorflow模型量化4 --pb转tflite(uint8量化)小结

六月ゝ 毕业季﹏ 提交于 2020-08-20 08:41:52
Tensorflow模型量化4 --pb转tflite小结(uint8量化) 实验环境:tensorflow-gpu1.15+cuda10.0 模型的fp16量化和int8量化我之前有写,参考: 龟龟:Tensorflow模型量化实践2--量化自己训练的模型​zhuanlan.zhihu.com 这次发现uint8量化时有参数设置,所以准备是从头再梳理一遍 2.参与量化的模型: 训练tensorflow-object-detection API 得到的ssdlite_mobilenet _ v2模型,导出为frozen_inference_graph.pb 3.获取输入输出节点 进行frozen_inference_graph.pb模型解析,得到输入输出节点信息 代码入下: """ code by zzg """ import tensorflow as tf import os os.environ["CUDA_VISIBLE_DEVICES"] = "0" config = tf.ConfigProto() config.gpu_options.allow_growth = True with tf.Session() as sess: with open('frozen_inference_graph_resnet.pb','rb') as f: graph_def = tf

c++ 导入caffe

喜你入骨 提交于 2020-08-20 04:49:05
新的C++工程引用caffe报一堆关于“caffe.pb.h”的错误 dongxia_dl 2020-01-14 11:41:46 39 收藏 展开 问题描述:新建一个工程,引用caffe.lib等(相关的debug或release配置都是从caffe原始配置中直接拷贝过来的),配置完后编译 报错 : 出现几百个关于“caffe.pb.h”的错误,“未定义的存储类”等问题 解决:参考博客,添加几个预处理项 NO_STRICT WIN32_LEAN_AND_MEAN NOMINMAX _CRT_SECURE_NO_WARNINGS 来源: oschina 链接: https://my.oschina.net/u/4394252/blog/4284200