add fp16 pngs

pull/108/head
littletomatodonkey 2020-05-09 11:18:17 +00:00
parent 0e807423f4
commit 180f32e415
12 changed files with 15 additions and 4 deletions

Binary file not shown.

After

Width:  |  Height:  |  Size: 88 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 57 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 54 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 57 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 84 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 105 KiB

View File

@ -12,6 +12,8 @@ DPN的全称是Dual Path Networks即双通道网络。该网络是由DenseNet
![](../../images/models/T4_benchmark/t4.fp32.bs4.DPN.png)
![](../../images/models/T4_benchmark/t4.fp16.bs4.DPN.png)
目前PaddleClas开源的这两类模型的预训练模型一共有10个其指标如上图所示可以看到在相同的FLOPS和参数量下相比DenseNetDPN拥有更高的精度。但是由于DPN有更多的分支所以其推理速度要慢于DenseNet。由于DenseNet264的网络层数最深所以该网络是DenseNet系列模型中参数量最大的网络DenseNet161的网络的宽度最大导致其是该系列中网络中计算量最大、精度最高的网络。从推理速度来看计算量大且精度高的的DenseNet161比DenseNet264具有更快的速度所以其比DenseNet264具有更大的优势。
对于DPN系列网络模型的FLOPS和参数量越大模型的精度越高。其中由于DPN107的网络宽度最大所以其是该系列网络中参数量与计算量最大的网络。

View File

@ -6,8 +6,7 @@ EfficientNet是Google于2019年发布的一个基于NAS的轻量级网络
ResNeXt是facebook于2016年提出的一种对ResNet的改进版网络。在2019年facebook通过弱监督学习研究了该系列网络在ImageNet上的精度上限为了区别之前的ResNeXt网络该系列网络的后缀为wsl其中wsl是弱监督学习weakly-supervised-learning的简称。为了能有更强的特征提取能力研究者将其网络宽度进一步放大其中最大的ResNeXt101_32x48d_wsl拥有8亿个参数将其在9.4亿的弱标签图片下训练并在ImageNet-1k上做finetune最终在ImageNet-1k的top-1达到了85.4%这也是迄今为止在ImageNet-1k的数据集上以224x224的分辨率下精度最高的网络。Fix-ResNeXt中作者使用了更大的图像分辨率针对训练图片和验证图片数据预处理不一致的情况下做了专门的Fix策略并使得ResNeXt101_32x48d_wsl拥有了更高的精度由于其用到了Fix策略故命名为Fix-ResNeXt101_32x48d_wsl。
该系列模型的FLOPS、参数量以及T4 GPU
上的预测耗时如下图所示。
该系列模型的FLOPS、参数量以及T4 GPU上的预测耗时如下图所示。
![](../../images/models/T4_benchmark/t4.fp32.bs4.EfficientNet.flops.png)
@ -15,6 +14,8 @@ ResNeXt是facebook于2016年提出的一种对ResNet的改进版网络。在2019
![](../../images/models/T4_benchmark/t4.fp32.bs1.EfficientNet.png)
![](../../images/models/T4_benchmark/t4.fp16.bs1.EfficientNet.png)
目前PaddleClas开源的这两类模型的预训练模型一共有14个。从上图中可以看出EfficientNet系列网络优势非常明显ResNeXt101_wsl系列模型由于用到了更多的数据最终的精度也更高。EfficientNet_B0_Small是去掉了SE_block的EfficientNet_B0其具有更快的推理速度。
## 精度、FLOPS和参数量

View File

@ -3,7 +3,7 @@
## 概述
HRNet是2019年由微软亚洲研究院提出的一种全新的神经网络不同于以往的卷积神经网络该网络在网络深层仍然可以保持高分辨率因此预测的关键点热图更准确在空间上也更精确。此外该网络在对分辨率敏感的其他视觉任务中如检测、分割等表现尤为优异。
该系列模型的FLOPS、参数量以及FP32预测耗时如下图所示。
该系列模型的FLOPS、参数量以及T4 GPU上的预测耗时如下图所示。
![](../../images/models/T4_benchmark/t4.fp32.bs4.HRNet.flops.png)
@ -11,6 +11,8 @@ HRNet是2019年由微软亚洲研究院提出的一种全新的神经网络
![](../../images/models/T4_benchmark/t4.fp32.bs4.HRNet.png)
![](../../images/models/T4_benchmark/t4.fp16.bs4.HRNet.png)
目前PaddleClas开源的这类模型的预训练模型一共有7个其指标如图所示其中HRNet_W48_C指标精度异常的原因可能是因为网络训练的正常波动。

View File

@ -17,6 +17,8 @@ InceptionV4是2016年由Google设计的新的神经网络当时残差结构
![](../../images/models/T4_benchmark/t4.fp32.bs4.Inception.png)
![](../../images/models/T4_benchmark/t4.fp16.bs4.Inception.png)
上图反映了Xception系列和InceptionV4的精度和其他指标的关系。其中Xception_deeplab与论文结构保持一致Xception是PaddleClas的改进模型在预测速度基本不变的情况下精度提升约0.6%。关于该改进模型的详细介绍正在持续更新中,敬请期待。

View File

@ -18,6 +18,8 @@ ResNet系列模型是在2015年提出的一举在ILSVRC2015比赛中取得冠
![](../../images/models/T4_benchmark/t4.fp32.bs4.ResNet.png)
![](../../images/models/T4_benchmark/t4.fp16.bs4.ResNet.png)
通过上述曲线可以看出层数越多准确率越高但是相应的参数量、计算量和延时都会增加。ResNet50_vd_ssld通过用更强的teacher和更多的数据将其在ImageNet-1k上的验证集top-1精度进一步提高达到了82.39%刷新了ResNet50系列模型的精度。

View File

@ -7,7 +7,7 @@ SENet是2017年ImageNet分类比赛的冠军方案其提出了一个全新的
Res2Net是2019年提出的一种全新的对ResNet的改进方案该方案可以和现有其他优秀模块轻松整合在不增加计算负载量的情况下在ImageNet、CIFAR-100等数据集上的测试性能超过了ResNet。Res2Net结构简单性能优越进一步探索了CNN在更细粒度级别的多尺度表示能力。Res2Net揭示了一个新的提升模型精度的维度即scale其是除了深度、宽度和基数的现有维度之外另外一个必不可少的更有效的因素。该网络在其他视觉任务如目标检测、图像分割等也有相当不错的表现。
该系列模型的FLOPS、参数量以及T4 GPU上的FP32预测耗时如下图所示。
该系列模型的FLOPS、参数量以及T4 GPU上的预测耗时如下图所示。
![](../../images/models/T4_benchmark/t4.fp32.bs4.SeResNeXt.flops.png)
@ -16,6 +16,8 @@ Res2Net是2019年提出的一种全新的对ResNet的改进方案该方案可
![](../../images/models/T4_benchmark/t4.fp32.bs4.SeResNeXt.png)
![](../../images/models/T4_benchmark/t4.fp16.bs4.SeResNeXt.png)
目前PaddleClas开源的这三类的预训练模型一共有24个其指标如图所示从图中可以看出在同样Flops和Params下改进版的模型往往有更高的精度但是推理速度往往不如ResNet系列。另一方面Res2Net表现也较为优秀相比ResNeXt中的group操作、SEResNet中的SE结构操作Res2Net在相同Flops、Params和推理速度下往往精度更佳。