2.5 KiB
2.5 KiB
模型服务化部署
一、简介
Paddle Serving 旨在帮助深度学习开发者轻易部署在线预测服务,支持一键部署工业级的服务能力、客户端和服务端之间高并发和高效通信、并支持多种编程语言开发客户端。
该部分以HTTP预测服务部署为例,介绍怎样在PaddleClas中使用PaddleServing部署模型服务。
二、Serving安装
Serving官网推荐使用docker安装并部署Serving环境。首先需要拉取docker环境并创建基于Serving的docker。
nvidia-docker pull hub.baidubce.com/paddlepaddle/serving:0.2.0-gpu
nvidia-docker run -p 9292:9292 --name test -dit hub.baidubce.com/paddlepaddle/serving:0.2.0-gpu
nvidia-docker exec -it test bash
进入docker后,需要安装Serving相关的python包。
pip install paddlepaddle-gpu
pip install paddle-serving-client
pip install paddle-serving-server-gpu
-
如果安装速度太慢,可以通过
-i https://pypi.tuna.tsinghua.edu.cn/simple
更换源,加速安装过程。 -
如果希望部署CPU服务,可以安装serving-server的cpu版本,安装命令如下。
pip install paddle-serving-server
三、导出模型
使用tools/export_serving_model.py
脚本导出Serving模型,以ResNet50_vd
为例,使用方法如下。
python tools/export_serving_model.py -m ResNet50_vd -p ./pretrained/ResNet50_vd_pretrained/ -o serving
最终在serving文件夹下会生成ppcls_client_conf
与ppcls_model
两个文件夹,分别存储了client配置、模型参数与结构文件。
四、服务部署与请求
- 使用下面的方式启动Serving服务。
python tools/serving/image_service_gpu.py serving/ppcls_model workdir 9292
其中serving/ppcls_model
为刚才保存的Serving模型地址,workdir
为为工作目录,9292
为服务的端口号。
- 使用下面的脚本向Serving服务发送识别请求,并返回结果。
python tools/serving/image_http_client.py 9292 ./docs/images/logo.png
9292
为发送请求的端口号,需要与服务启动时的端口号保持一致,./docs/images/logo.png
为待识别的图像文件。最终返回Top1识别结果的类别ID以及概率值。
- 更多的服务部署类型,如
RPC预测服务
等,可以参考Serving的github官网:https://github.com/PaddlePaddle/Serving/tree/develop/python/examples/imagenet