PaddleHub

paddlehub基础介绍

折月煮酒 提交于 2020-03-26 15:23:29
3 月,跳不动了?>>> 欢迎使用 PaddleHub ! PaddleHub是飞桨预训练模型管理和迁移学习工具,通过PaddleHub开发者可以使用高质量的预训练模型结合Fine-tune API快速完成迁移学习到应用部署的全流程工作。其提供了飞桨生态下的高质量预训练模型,涵盖了图像分类、目标检测、词法分析、语义模型、情感分析、视频分类、图像生成、图像分割、文本审核、关键点检测等主流模型。更多模型详情请查看官网: https://www.paddlepaddle.org.cn/hub 基于预训练模型,PaddleHub支持以下功能: 命令行工具 ,通过Python API或命令行方便快捷地完成模型的搜索、下载、安装、升级、预测等功能 迁移学习 ,用户通过Fine-tune API,只需要少量代码即可完成自然语言处理和计算机视觉场景的深度迁移学习。 服务化部署 ,简单一行命令即可搭建属于自己的模型的API服务。 超参优化 ,自动搜索最优超参,得到更好的模型效果。 PaddleHub 特性 命令行工具 借鉴了Anaconda和PIP等软件包管理的理念,开发了PaddleHub命令行工具。可以方便快捷的完成模型的搜索、下载、安装、升级、预测等功能。 更加详细的使用说明可以参考 PaddleHub命令行工具 。 目前的预训练模型覆盖了图像分类、语义模型、视频分类、图像生成、图像分割

Python 识别文本情感就这么简单

你。 提交于 2020-03-24 11:00:53
3 月,跳不动了?>>> 很多同学都对自然语言处理感兴趣,但是却不知道应该从哪里下手。Python实用宝典曾写过一篇文章(《 短文本分类识别自杀倾向 》),教你从构建数据集到训练数据,再到测试数据,整个流程确实需要耐心的人才能成功走通。 不过现在有了paddlehub,我们可以先省略掉构建数据集和训练数据这两个步骤,直接拿模型过来分类。一旦简单版的分类成功了,你就会有动力继续前进,继续学习如何训练属于自己的模型。 今天我们用paddlehub中比较简单的情感倾向分析模型 senta_lstm 来对文本做一个简单的积极和消极的分类。 1.准备 为了实现这个实验,Python是必不可少的,如果你还没有安装Python,建议阅读我们的这篇文章哦: 超详细Python安装指南 。 然后,我们需要安装paddlepaddle, 进入他们的官方网站就有详细的指引: https://www.paddlepaddle.org.cn/install/quick 根据你自己的情况选择这些选项,最后一个CUDA版本,由于本实验不需要训练数据,也不需要太大的计算量,所以直接选择CPU版本即可。选择完毕,下方会出现安装指引,不得不说,Paddlepaddle这些方面做的还是比较贴心的(就是名字起的不好)。 不过虽然它里面写了这么多,大部分人用一句话安装,打开CMD(Win+R)或者Terminal

PaddleHub Serving模型一键服务部署

给你一囗甜甜゛ 提交于 2020-03-03 13:18:43
简介 为什么使用一键服务部署 使用PaddleHub能够快速进行模型预测,但开发者常面临本地预测过程迁移线上的需求。无论是对外开放服务端口,还是在局域网中搭建预测服务,都需要PaddleHub具有快速部署模型预测服务的能力。在这个背景下,模型一键服务部署工具——PaddleHub Serving应运而生。开发者通过一行命令即可快速启动一个模型预测在线服务,而无需关注网络框架选择和实现。 什么是一键服务部署 PaddleHub Serving是基于PaddleHub的一键模型服务部署工具,能够通过简单的Hub命令行工具轻松启动一个模型预测在线服务,前端通过Flask和Gunicorn完成网络请求的处理,后端直接调用PaddleHub预测接口,同时支持使用多进程方式利用多核提高并发能力,保证预测服务的性能。 支持模型 目前PaddleHub Serving支持对PaddleHub所有可直接预测的模型进行服务部署,包括 lac 、 senta_bilstm 等NLP类模型,以及 yolov3_darknet53_coco2017 、 vgg16_imagenet 等CV类模型,更多模型请参见 PaddleHub支持模型列表 。未来还将支持开发者使用PaddleHub Fine-tune API得到的模型用于快捷服务部署。 使用 Step1:启动服务端部署 PaddleHub

百度开源业内首个口罩人脸检测及分类模型

谁都会走 提交于 2020-02-28 06:24:51
抗击疫情,众志成城,人工智能技术正被应用到疫情防控中来。 2月13日, 百度宣布免费开源业内首个口罩人脸检测及分类模型 。该模型可以有效检测在密集人流区域中携带和未携戴口罩的所有人脸,同时判断该者是否佩戴口罩。目前已通过飞桨PaddleHub开源出来,广大开发者用几行代码即可快速上手,免费调用。 ​ 模型可视化效果:绿框为佩戴口罩标注,红框为未佩戴口罩标注 随着本周各企业相继复工,节后经济开始逐渐恢复,人脸口罩检测方案成为返工潮中众多社区、大型厂商、央企的重要需求。如判断工区员工是否佩戴口罩、人流密集的关口运输中心如何识别戴口罩的人脸并测温、佩戴口罩是否也能完成日常刷脸打卡等等……都是新冠肺炎疫情下需要解决的真实痛点。 疫情防控刻不容缓,百度此前已有多项AI举措助力疫情防控。此次宣布免费开源的自研口罩人脸检测及分类模型, 是 基于2018年百度收录于国际顶级计算机视觉会议ECCV的论文PyramidBox研发 ,可以在人流密集的公共场景检测海量人脸的同时,将佩戴口罩和未佩戴口罩的人脸快速识别标注。基于此预训练模型,开发者仅需使用少量自有数据,便可快速完成自有场景的模型开发。 百度研发工程师介绍,口罩人脸检测及分类模型,由两个功能单元组成,可以分别完成口罩人脸的检测和口罩人脸的分类。经测试,模型的人脸检测算法基于faceboxes的主干网络加入了超过10万张口罩人脸数据训练

百度飞桨口罩人脸检测与识别模型再升级,视频教学带你实战

自古美人都是妖i 提交于 2020-02-28 04:19:45
自百度开源业界首个口罩人脸检测及分类模型之后,开发者社区进行了充分讨论并提出了该模型存在的一些问题和不足。在本文中,百度飞桨官方对这些反馈积极回应,同时提出四大升级方案,为开发者一一解惑。 2月13日《 百度开源业内首个口罩人脸检测及分类模型 》文章中介绍,该模型可以有效检测在密集人流区域中携带和未携戴口罩的所有人脸,同时判断是否佩戴口罩。 由于目前正值很多企业复工,口罩检测对于后续复工的安全性毋庸置疑,文章一经发出,在开发者社区引起巨大反响,截至目前发稿,百度飞桨官方技术交流 QQ 群已经达到人数上限,再加入的同学,只能加入新群。 在技术讨论群里,广大开发者针对口罩人脸检测与分类模型的技术应用展开了充分的讨论,有些开发者实战反馈,模型在实际场景下还是有一些提升空间。 比如这样,一张神秘形状的纸被判断为口罩, ​ 再比如这样的,一个销魂的手指挡住了口鼻, ​ 除了 badcase 本身,很多开发者还遇到了各种各样的问题,比如实际的环境很复杂,中远景模型效果还不错,但是近景就会不太理想。还有的是监控摄像头的像素分辨率,也会带来不同的判断结果。同时,更多的需求也反馈出来: 能不能开放模型的一些接口出来? 在 PC 端,除了 python 部署,有没有高性能的 C++部署教程呀? 如果想做视频流的检测,应该怎么办呀? 需求很多,百度飞桨给出的答案是肯定的。 作为开源开放的深度学习平台

百度飞桨口罩人脸检测与识别模型再升级,视频教学带你实战

五迷三道 提交于 2020-02-28 00:57:02
自百度开源业界首个口罩人脸检测及分类模型之后,开发者社区进行了充分讨论并提出了该模型存在的一些问题和不足。在本文中,百度飞桨官方对这些反馈积极回应,同时提出四大升级方案,为开发者一一解惑。 2月13日《 百度开源业内首个口罩人脸检测及分类模型 》文章中介绍,该模型可以有效检测在密集人流区域中携带和未携戴口罩的所有人脸,同时判断是否佩戴口罩。 由于目前正值很多企业复工,口罩检测对于后续复工的安全性毋庸置疑,文章一经发出,在开发者社区引起巨大反响,截至目前发稿,百度飞桨官方技术交流 QQ 群已经达到人数上限,再加入的同学,只能加入新群。 在技术讨论群里,广大开发者针对口罩人脸检测与分类模型的技术应用展开了充分的讨论,有些开发者实战反馈,模型在实际场景下还是有一些提升空间。 比如这样,一张神秘形状的纸被判断为口罩, ​ 再比如这样的,一个销魂的手指挡住了口鼻, ​ 除了 badcase 本身,很多开发者还遇到了各种各样的问题,比如实际的环境很复杂,中远景模型效果还不错,但是近景就会不太理想。还有的是监控摄像头的像素分辨率,也会带来不同的判断结果。同时,更多的需求也反馈出来: 能不能开放模型的一些接口出来? 在 PC 端,除了 python 部署,有没有高性能的 C++部署教程呀? 如果想做视频流的检测,应该怎么办呀? 需求很多,百度飞桨给出的答案是肯定的。 作为开源开放的深度学习平台

2019,那些属于飞桨的重要时刻

有些话、适合烂在心里 提交于 2020-02-26 08:20:36
2019已经悄然落幕,在过去一年中,飞桨加速崛起,在产品性能上高效迭代,并屡次斩获多项大奖,其取得的成绩有目共睹,这也意味着飞桨正领衔中国深度学习框架迎来高光时刻。现在,让我们一起来回顾一下2019关于飞桨的那些重要记忆。 01 核心发布 一、 版本迭代 2019年,飞桨一共进行了4次大版本迭代,同时还推出了语义理解框架ERNIE,产品体验大幅提升,核心技术显著增强。 V1.3 3月,飞桨统一Executor和ParallelExecutor接口,正式发布AnalysisConfig 预测接口,支持计算图分析、算子融合等优化;模型库新增发布飞桨视频模型库,提供5个视频分类经典模型以及适合视频分类任务的通用骨架代码;新增支持NLP语义表示BERT模型,支持多机多卡训练,支持混合精度训练,训练速度对比主流实现提升50%+;发布大规模稀疏参数服务器Benchmark。 V1.4 4月,飞桨正式发布模型压缩工具包PaddleSlim和模型预测服务Paddle Serving,全面提升飞桨部署能力。正式发布视频分类工具包,覆盖主流视频分类模型;正式发布PaddleNLP,工业级中文NLP工具与预训练模型集。正式发布PaddleHub预训练模型管理工具,提供包括预训练模型管理、命令行一键式使用和迁移学习三大功能。发布业界领先的超大规模并行能力,包括大规模稀疏参数服务器解决方案、工业级数据处理

百度AI攻略:Paddlehub实现图像分类

喜夏-厌秋 提交于 2020-01-10 10:53:14
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> PaddleHub可以便捷地获取PaddlePaddle生态下的预训练模型,完成模型的管理和一键预测。配合使用Fine-tune API,可以基于大规模预训练模型快速完成迁移学习,让预训练模型能更好地服务于用户特定场景的应用。 本次介绍如何使用paddlehub调用vgg模型实现图像分类。 模型概述 VGG是牛津大学计算机视觉组和DeepMind在2014年提出的一种图像分类模型。该系列模型探索了卷积神经网络的深度与其性能之间的关系,通过实验证明了增加网络的深度能够在一定程度上影响网络最终的性能,到目前为止,VGG仍然被许多其他图像任务用作特征提取的BackBone网络。该PaddleHub Module结构为VGG16,基于ImageNet-2012数据集训练,接受输入图片大小为224 x 224 x 3,支持直接通过命令行或者Python接口进行预测。 module = hub.Module(name="vgg16_imagenet") test_img_path = "./cat1.jpg" # 预测结果展示 img = mpimg.imread(test_img_path) plt.imshow(img) plt.axis('off') plt.show() # set input dict input

百度AI攻略:Paddlehub实现关键点检测

非 Y 不嫁゛ 提交于 2020-01-10 10:49:23
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> PaddleHub可以便捷地获取PaddlePaddle生态下的预训练模型,完成模型的管理和一键预测。配合使用Fine-tune API,可以基于大规模预训练模型快速完成迁移学习,让预训练模型能更好地服务于用户特定场景的应用。 模型概述 人体骨骼关键点检测(Pose Estimation) 是计算机视觉的基础性算法之一,在诸多计算机视觉任务起到了基础性的作用,如行为识别、人物跟踪、步态识别等相关领域。具体应用主要集中在智能视频监控,病人监护系统,人机交互,虚拟现实,人体动画,智能家居,智能安防,运动员辅助训练等等。 该模型的论文《Simple Baselines for Human Pose Estimation and Tracking》由 MSRA 发表于 ECCV18,使用 MPII 数据集训练完成。 代码及效果示例: import paddlehub as hub import matplotlib.pyplot as plt import matplotlib.image as mpimg #pose_resnet50_mpii module = hub.Module(name="pose_resnet50_mpii") test_img_path = "./body2.jpg" # 预测结果展示

百度AI攻略:Paddlehub实现人体解析

非 Y 不嫁゛ 提交于 2020-01-10 09:27:08
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> PaddleHub可以便捷地获取PaddlePaddle生态下的预训练模型,完成模型的管理和一键预测。配合使用Fine-tune API,可以基于大规模预训练模型快速完成迁移学习,让预训练模型能更好地服务于用户特定场景的应用。 模型概述 人体解析(Human Parsing)是细粒度的语义分割任务,其旨在识别像素级别的人类图像的组成部分(例如,身体部位和服装)。ACE2P通过融合底层特征,全局上下文信息和边缘细节,端到端地训练学习人体解析任务。该结构针对Intersection over Union指标进行针对性的优化学习,提升准确率。以ACE2P单人人体解析网络为基础的解决方案在CVPR2019第三届LIP挑战赛中赢得了全部三个人体解析任务的第一名。该PaddleHub Module采用ResNet101作为骨干网络,接受输入图片大小为473x473x3。 ​ API def segmentation(data) 用于人像分割 参数 data:dict类型,key为 image ,str类型;value为待分割的图片路径,list类型。 output_dir:生成图片的保存路径,默认为ace2p_output 返回 result:list类型,每个元素为对应输入图片的预测结果。预测结果为dict类型