Docker下的Tensorflow

喜你入骨 提交于 2020-02-27 21:52:42

tensorflow

下载并运行

  • 阿里镜像 docker run -it registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow bash

  • 较原生方式 (直接docker pull tensorflow/tensorflow 被墙,借用) docker pull registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow docker tag registry.cn-hangzhou.aliyuncs.com/denverdino/tensorflow tensorflow/tensorflow docker run -it -p 8888:8888 tensorflow/tensorflow

使用

照提示

Copy/paste this URL into your browser when you connect for the first time,
    to login with a token:
        http://localhost:8888/?token=8cf1adc4f51f524440a264d0314f18e618cad6ddf6ae4ed6

tensorflow-serving

简介

TensorFlow Serving是GOOGLE开源的一个服务系统,适用于部署机器学习模型,灵活、性能高、可用于生产环境。 TensorFlow Serving可以轻松部署新算法和实验,同时保持相同的服务器架构和API,它具有以下特性:

  • 支持模型版本控制和回滚
  • 支持并发,实现高吞吐量
  • 开箱即用,并且可定制化
  • 支持多模型服务
  • 支持批处理
  • 支持热更新
  • 支持分布式模型
  • 易于使用的inference api
  • gRPC和HTTP请求。gRPC默认端口是8500,HTTP请求的默认端口是8501
  • 镜像中的程序会自动加载镜像内/models下的模型,通过MODEL_NAME指定/models下的哪个模型

安装和使用演示

使用一个名为的玩具模型Half Plus Two,它0.5 * x + 2为x我们提供的预测值生成。 (这里使用的是CPU版本。如果使用 tensorflow/serving:latest-gpu,此模型将操作绑定到GPU设备,并且不会在CPU上运行)

//下载安装
cd /data/
git clone https://github.com/tensorflow/serving
docker pull tensorflow/serving:latest

//运行
docker run -p 8501:8501 --mount type=bind,source=/data/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu,target=/models/half_plus_two -e MODEL_NAME=half_plus_two -t tensorflow/serving:latest &

//使用
curl -d '{"instances": [1.0, 2.0, 5.0]}'   -X POST http://localhost:8501/v1/models/half_plus_two:predict

运行参数说明

--mount:   表示要进行挂载
source:    指定要运行部署的模型地址, 也就是挂载的源,这个是在宿主机上的servable模型目录(pb格式模型而不是checkpoint模型)
target:     这个是要挂载的目标位置,也就是挂载到docker容器中的哪个位置,这是docker容器中的目录,模型默认挂在/models/目录下,如果改变路径会出现找不到model的错误
-t:         指定的是挂载到哪个容器
-d:         后台运行
-p:         指定主机到docker容器的端口映射
-e:         环境变量
-v:         docker数据卷
--name:     指定容器name,后续使用比用container_id更方便
docker run: 启动这个容器并启动模型服务(这里是如何同时启动容器中的模型服务的还不太清楚)

模型转化

平时使用tf.Saver()保存的模型是checkpoint格式的,但是在TensorFlow Serving中一个servable的模型目录中是一个pb格式文件和一个名为variables的目录,因此需要在模型保存时就保存好可部署的模型格式,或者将已经训练好的checkpoint转换为servable format

但这个转化目前还是比较定制化的,需要不少工作

多模型部署

一个任务可能需要用到多个模型,例如命名实体识别我训练了多个模型,对每个句子都需要汇总所有模型的结果,这时就需要用到多模型部署。 多模型部署时,无法在命令行中指定MODEL_NAME了,需要编写一个如下的json配置文件,这里取名为model.config

model_config_list: {
    config: {
        name: "model1",
        base_path: "/models/model1",
        model_platform: "tensorflow",
        model_version_policy: {
           all: {}
    },
    config: {
        name: "model2",
        base_path: "/models/model2",
        model_platform: "tensorflow",
        model_version_policy: {
           latest: {
               num_versions: 1
           }
        }
    },
    config: {
        name: "model3",
        base_path: "/models/model3",
        model_platform: "tensorflow",
        model_version_policy: {
           specific: {
               versions: 1
           }
        }
    }
}
  • model_version_policy指定模型版本
    • 可以删除,默认是部署最新版本的模型
    • 如果想要部署指定版本或者全部版本,需要单独设定

启动多模型服务命令时,需要将所有模型和配置文件逐个绑定,然后指定配置文件路径

docker run -d -p 8500:8500 --mounttype=bind,source=/path/to/source_models/model1/,target=/models/model1 --mounttype=bind,source=/path/to/source_models/model2/,target=/models/model2 --mounttype=bind,source=/path/to/source_models/model3/,target=/models/model3 --mounttype=bind,source=/path/to/source_models/model.config,target=/models/model.config -t --name ner tensorflow/serving --model_config_file=/models/model.config

热更新

如果想上线新模型,只需要修改模型配置文件,然后同时把新模型的模型文件放到对应路径下就可以

参考

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!