mirror of
https://github.com/open-mmlab/mmyolo.git
synced 2025-06-03 15:00:20 +08:00
49 lines
1.6 KiB
Markdown
49 lines
1.6 KiB
Markdown
# 使用 DeepStream SDK 推理 MMYOLO 模型
|
|
|
|
本项目演示了如何使用 [DeepStream SDK](https://developer.nvidia.com/deepstream-sdk) 配合改写的 parser 来推理 MMYOLO 的模型。
|
|
|
|
## 预先准备
|
|
|
|
### 1. 安装 Nidia 驱动和 CUDA
|
|
|
|
首先请根据当前的显卡驱动和目标使用设备的驱动完成显卡驱动和 CUDA 的安装。
|
|
|
|
### 2. 安装 DeepStream SDK
|
|
|
|
目前 DeepStream SDK 稳定版本已经更新到 v6.2,官方推荐使用这个版本。
|
|
|
|
### 3. 将 MMYOLO 模型转换为 TensorRT Engine
|
|
|
|
推荐使用 EasyDeploy 中的 TensorRT 方案完成目标模型的转换部署,具体可参考 [此文档](../../easydeploy/docs/model_convert.md) 。
|
|
|
|
## 编译使用
|
|
|
|
当前项目使用的是 MMYOLO 的 rtmdet 模型,若想使用其他的模型,请参照目录下的配置文件进行改写。然后将转换完的 TensorRT engine 放在当前目录下并执行如下命令:
|
|
|
|
```bash
|
|
mkdir build && cd build
|
|
cmake ..
|
|
make -j$(nproc) && make install
|
|
```
|
|
|
|
完成编译后可使用如下命令进行推理:
|
|
|
|
```bash
|
|
deepstream-app -c deepstream_app_config.txt
|
|
```
|
|
|
|
## 项目代码结构
|
|
|
|
```bash
|
|
├── deepstream
|
|
│ ├── configs # MMYOLO 模型对应的 DeepStream 配置
|
|
│ │ └── config_infer_rtmdet.txt
|
|
│ ├── custom_mmyolo_bbox_parser # 适配 DeepStream formats 的 parser
|
|
│ │ └── nvdsparsebbox_mmyolo.cpp
|
|
| ├── CMakeLists.txt
|
|
│ ├── coco_labels.txt # coco labels
|
|
│ ├── deepstream_app_config.txt # DeepStream app 配置
|
|
│ ├── README_zh-CN.md
|
|
│ └── README.md
|
|
```
|