使用Docker和TensorFlow Serving部署服务
目录 1.启动docker 2.模型由来 3.部署模型 1) 拉取镜像 2)启动服务 3)查看模型状态 4)查看模型的输入输出 4.模型接口预测:REST 1.启动docker 安装详细介绍可参考: https://blog.csdn.net/weixin_42530066/article/details/107850996 2.模型由来 此处使用已训练好的model,需注意TensorFlow Serving是使用SavedModel格式来保存模型的。由于SavedModel包含了完整的TensorFlow程序,包括权重和计算,它不需要运行原始的模型构建代码,因此对共享或部署 使 用TFLite,TensorFlow .js ,T ensorFLow Serving 或者 TensorFlow Hub 很有用 注:关于SavedModel可参考: https://www.tensorflow.org/guide/saved_model ,此处不详细介绍 文件目录树如下: └─exported_model └─saved_model └─1 └─savedmodel.pb 3.部署模型 获取官网的tfserving,参考链接,链接中有详细的docker pull命令,链接如下: https://hub.docker.com/r/tensorflow/serving/tags 1)