2020-11-10 17:19:50 +08:00
|
|
|
|
[English](readme_en.md) | 简体中文
|
|
|
|
|
|
|
|
|
|
# 基于PaddleHub Serving的服务部署
|
|
|
|
|
|
|
|
|
|
hubserving服务部署配置服务包`clas`下包含3个必选文件,目录如下:
|
|
|
|
|
```
|
2021-06-17 20:56:03 +08:00
|
|
|
|
hubserving/clas/
|
2020-11-10 17:19:50 +08:00
|
|
|
|
└─ __init__.py 空文件,必选
|
|
|
|
|
└─ config.json 配置文件,可选,使用配置启动服务时作为参数传入
|
|
|
|
|
└─ module.py 主模块,必选,包含服务的完整逻辑
|
|
|
|
|
└─ params.py 参数文件,必选,包含模型路径、前后处理参数等参数
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
## 快速启动服务
|
|
|
|
|
### 1. 准备环境
|
|
|
|
|
```shell
|
2020-12-24 18:21:37 +08:00
|
|
|
|
# 安装paddlehub,请安装2.0版本
|
2021-07-19 16:11:43 +08:00
|
|
|
|
pip3 install paddlehub==2.1.0 --upgrade -i https://pypi.tuna.tsinghua.edu.cn/simple
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 2. 下载推理模型
|
|
|
|
|
安装服务模块前,需要准备推理模型并放到正确路径,默认模型路径为:
|
|
|
|
|
```
|
2021-06-17 20:56:03 +08:00
|
|
|
|
分类推理模型结构文件:PaddleClas/inference/inference.pdmodel
|
|
|
|
|
分类推理模型权重文件:PaddleClas/inference/inference.pdiparams
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```
|
|
|
|
|
|
2021-06-02 22:05:11 +08:00
|
|
|
|
**注意**:
|
2021-06-17 20:56:03 +08:00
|
|
|
|
* 模型文件路径可在`PaddleClas/deploy/hubserving/clas/params.py`中查看和修改:
|
2021-06-02 22:05:11 +08:00
|
|
|
|
```python
|
2021-06-17 20:56:03 +08:00
|
|
|
|
"inference_model_dir": "../inference/"
|
2021-06-02 22:05:11 +08:00
|
|
|
|
```
|
2021-06-17 20:56:03 +08:00
|
|
|
|
需要注意,模型文件(包括.pdmodel与.pdiparams)名称必须为`inference`。
|
2021-06-02 22:05:11 +08:00
|
|
|
|
* 我们也提供了大量基于ImageNet-1k数据集的预训练模型,模型列表及下载地址详见[模型库概览](../../docs/zh_CN/models/models_intro.md),也可以使用自己训练转换好的模型。
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
### 3. 安装服务模块
|
|
|
|
|
针对Linux环境和Windows环境,安装命令如下。
|
|
|
|
|
|
|
|
|
|
* 在Linux环境下,安装示例如下:
|
|
|
|
|
```shell
|
2021-06-17 20:56:03 +08:00
|
|
|
|
cd PaddleClas/deploy
|
|
|
|
|
# 安装服务模块:
|
|
|
|
|
hub install hubserving/clas/
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
* 在Windows环境下(文件夹的分隔符为`\`),安装示例如下:
|
2021-06-17 20:56:03 +08:00
|
|
|
|
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```shell
|
2021-06-17 20:56:03 +08:00
|
|
|
|
cd PaddleClas\deploy
|
2020-11-10 17:19:50 +08:00
|
|
|
|
# 安装服务模块:
|
2021-06-17 20:56:03 +08:00
|
|
|
|
hub install hubserving\clas\
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
### 4. 启动服务
|
|
|
|
|
#### 方式1. 命令行命令启动(仅支持CPU)
|
|
|
|
|
**启动命令:**
|
|
|
|
|
```shell
|
|
|
|
|
$ hub serving start --modules Module1==Version1 \
|
|
|
|
|
--port XXXX \
|
|
|
|
|
--use_multiprocess \
|
|
|
|
|
--workers \
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
**参数:**
|
|
|
|
|
|参数|用途|
|
|
|
|
|
|-|-|
|
|
|
|
|
|--modules/-m| [**必选**] PaddleHub Serving预安装模型,以多个Module==Version键值对的形式列出<br>*`当不指定Version时,默认选择最新版本`*|
|
|
|
|
|
|--port/-p| [**可选**] 服务端口,默认为8866|
|
|
|
|
|
|--use_multiprocess| [**可选**] 是否启用并发方式,默认为单进程方式,推荐多核CPU机器使用此方式<br>*`Windows操作系统只支持单进程方式`*|
|
|
|
|
|
|--workers| [**可选**] 在并发方式下指定的并发任务数,默认为`2*cpu_count-1`,其中`cpu_count`为CPU核数|
|
|
|
|
|
|
|
|
|
|
如按默认参数启动服务: ```hub serving start -m clas_system```
|
|
|
|
|
|
|
|
|
|
这样就完成了一个服务化API的部署,使用默认端口号8866。
|
|
|
|
|
|
|
|
|
|
#### 方式2. 配置文件启动(支持CPU、GPU)
|
|
|
|
|
**启动命令:**
|
|
|
|
|
```hub serving start -c config.json```
|
|
|
|
|
|
|
|
|
|
其中,`config.json`格式如下:
|
|
|
|
|
```json
|
|
|
|
|
{
|
|
|
|
|
"modules_info": {
|
|
|
|
|
"clas_system": {
|
|
|
|
|
"init_args": {
|
|
|
|
|
"version": "1.0.0",
|
2020-11-16 19:44:17 +08:00
|
|
|
|
"use_gpu": true,
|
|
|
|
|
"enable_mkldnn": false
|
2020-11-10 17:19:50 +08:00
|
|
|
|
},
|
|
|
|
|
"predict_args": {
|
|
|
|
|
}
|
|
|
|
|
}
|
|
|
|
|
},
|
|
|
|
|
"port": 8866,
|
|
|
|
|
"use_multiprocess": false,
|
|
|
|
|
"workers": 2
|
|
|
|
|
}
|
|
|
|
|
```
|
|
|
|
|
|
2020-11-16 19:44:17 +08:00
|
|
|
|
- `init_args`中的可配参数与`module.py`中的`_initialize`函数接口一致。其中,
|
|
|
|
|
- 当`use_gpu`为`true`时,表示使用GPU启动服务。
|
|
|
|
|
- 当`enable_mkldnn`为`true`时,表示使用MKL-DNN加速。
|
2020-11-10 17:19:50 +08:00
|
|
|
|
- `predict_args`中的可配参数与`module.py`中的`predict`函数接口一致。
|
|
|
|
|
|
|
|
|
|
**注意:**
|
|
|
|
|
- 使用配置文件启动服务时,其他参数会被忽略。
|
|
|
|
|
- 如果使用GPU预测(即,`use_gpu`置为`true`),则需要在启动服务之前,设置CUDA_VISIBLE_DEVICES环境变量,如:```export CUDA_VISIBLE_DEVICES=0```,否则不用设置。
|
|
|
|
|
- **`use_gpu`不可与`use_multiprocess`同时为`true`**。
|
2020-11-16 19:44:17 +08:00
|
|
|
|
- **`use_gpu`与`enable_mkldnn`同时为`true`时,将忽略`enable_mkldnn`,而使用GPU**。
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
如,使用GPU 3号卡启动串联服务:
|
|
|
|
|
```shell
|
2021-06-17 20:56:03 +08:00
|
|
|
|
cd PaddleClas/deploy
|
2020-11-10 17:19:50 +08:00
|
|
|
|
export CUDA_VISIBLE_DEVICES=3
|
2021-06-17 20:56:03 +08:00
|
|
|
|
hub serving start -c hubserving/clas/config.json
|
2020-11-10 17:19:50 +08:00
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
## 发送预测请求
|
|
|
|
|
配置好服务端,可使用以下命令发送预测请求,获取预测结果:
|
|
|
|
|
|
2021-06-17 20:56:03 +08:00
|
|
|
|
```shell
|
|
|
|
|
cd PaddleClas/deploy
|
|
|
|
|
python hubserving/test_hubserving.py server_url image_path
|
|
|
|
|
```
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
2021-06-02 22:05:11 +08:00
|
|
|
|
需要给脚本传递2个必须参数:
|
2020-11-10 17:19:50 +08:00
|
|
|
|
- **server_url**:服务地址,格式为
|
|
|
|
|
`http://[ip_address]:[port]/predict/[module_name]`
|
2021-06-02 22:05:11 +08:00
|
|
|
|
- **image_path**:测试图像路径,可以是单张图片路径,也可以是图像集合目录路径。
|
|
|
|
|
- **batch_size**:[**可选**] 以`batch_size`大小为单位进行预测,默认为`1`。
|
2021-07-19 16:11:43 +08:00
|
|
|
|
- **resize_short**:[**可选**] 预处理时,按短边调整大小,默认为`256`。
|
|
|
|
|
- **crop_size**:[**可选**] 预处理时,居中裁剪的大小,默认为`224`。
|
|
|
|
|
- **normalize**:[**可选**] 预处理时,是否进行`normalize`,默认为`True`。
|
|
|
|
|
- **to_chw**:[**可选**] 预处理时,是否调整为`CHW`顺序,默认为`True`。
|
2021-06-02 22:05:11 +08:00
|
|
|
|
|
2021-07-19 16:43:09 +08:00
|
|
|
|
**注意**:如果使用`Transformer`系列模型,如`DeiT_***_384`, `ViT_***_384`等,请注意模型的输入数据尺寸,需要指定`--resize_short=384 --crop_size=384`。
|
2021-06-02 22:05:11 +08:00
|
|
|
|
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
访问示例:
|
2021-06-17 20:56:03 +08:00
|
|
|
|
```shell
|
|
|
|
|
python hubserving/test_hubserving.py --server_url http://127.0.0.1:8866/predict/clas_system --image_file ./hubserving/ILSVRC2012_val_00006666.JPEG --batch_size 8
|
|
|
|
|
```
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
2020-12-28 13:28:06 +08:00
|
|
|
|
### 返回结果格式说明
|
|
|
|
|
返回结果为列表(list),包含top-k个分类结果,以及对应的得分,还有此图片预测耗时,具体如下:
|
|
|
|
|
```
|
|
|
|
|
list: 返回结果
|
|
|
|
|
└─ list: 第一张图片结果
|
|
|
|
|
└─ list: 前k个分类结果,依score递减排序
|
|
|
|
|
└─ list: 前k个分类结果对应的score,依score递减排序
|
|
|
|
|
└─ float: 该图分类耗时,单位秒
|
|
|
|
|
```
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
2021-06-17 20:56:03 +08:00
|
|
|
|
**说明:** 如果需要增加、删除、修改返回字段,可对相应模块进行修改,完整流程参考下一节自定义修改服务模块。
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
## 自定义修改服务模块
|
|
|
|
|
如果需要修改服务逻辑,你一般需要操作以下步骤:
|
|
|
|
|
|
|
|
|
|
- 1、 停止服务
|
|
|
|
|
```hub serving stop --port/-p XXXX```
|
|
|
|
|
|
2021-06-17 20:56:03 +08:00
|
|
|
|
- 2、 到相应的`module.py`和`params.py`等文件中根据实际需求修改代码。`module.py`修改后需要重新安装(`hub install hubserving/clas/`)并部署。在进行部署前,可通过`python hubserving/clas/module.py`测试已安装服务模块。
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
- 3、 卸载旧服务包
|
|
|
|
|
```hub uninstall clas_system```
|
|
|
|
|
|
|
|
|
|
- 4、 安装修改后的新服务包
|
2021-06-17 20:56:03 +08:00
|
|
|
|
```hub install hubserving/clas/```
|
2020-11-10 17:19:50 +08:00
|
|
|
|
|
|
|
|
|
- 5、重新启动服务
|
|
|
|
|
```hub serving start -m clas_system```
|
2021-06-17 20:56:03 +08:00
|
|
|
|
|
|
|
|
|
**注意**:
|
|
|
|
|
常用参数可在[params.py](./clas/params.py)中修改:
|
|
|
|
|
* 更换模型,需要修改模型文件路径参数:
|
|
|
|
|
```python
|
|
|
|
|
"inference_model_dir":
|
|
|
|
|
```
|
|
|
|
|
* 更改后处理时返回的`top-k`结果数量:
|
|
|
|
|
```python
|
|
|
|
|
'topk':
|
|
|
|
|
```
|
|
|
|
|
* 更改后处理时的lable与class id对应映射文件:
|
|
|
|
|
```python
|
|
|
|
|
'class_id_map_file':
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
为了避免不必要的延时以及能够以batch_size进行预测,数据预处理逻辑(包括resize、crop等操作)在客户端完成,因此需要在[test_hubserving.py](./test_hubserving.py#L35-L52)中修改。
|