From 416056b8ae3c87d9382dff7752164fb1ee3e745e Mon Sep 17 00:00:00 2001 From: cuicheng01 Date: Mon, 6 Jun 2022 06:35:35 +0000 Subject: [PATCH 1/3] update DataAugmentation.md --- .../advanced_tutorials/DataAugmentation.md | 675 ++++++++++++++++-- 1 file changed, 607 insertions(+), 68 deletions(-) diff --git a/docs/zh_CN/advanced_tutorials/DataAugmentation.md b/docs/zh_CN/advanced_tutorials/DataAugmentation.md index 9e5159a4a1..0e509b28ed 100644 --- a/docs/zh_CN/advanced_tutorials/DataAugmentation.md +++ b/docs/zh_CN/advanced_tutorials/DataAugmentation.md @@ -1,33 +1,160 @@ # 数据增强分类实战 --- -本节将基于 ImageNet-1K 的数据集详细介绍数据增强实验,如果想快速体验此方法,可以参考 [**30 分钟玩转 PaddleClas(进阶版)**](../quick_start/quick_start_classification_professional.md)中基于 CIFAR100 的数据增强实验。如果想了解相关算法的内容,请参考[数据增强算法介绍](../algorithm_introduction/DataAugmentation.md)。 - - ## 目录 -- [1. 参数配置](#1) - - [1.1 AutoAugment](#1.1) - - [1.2 RandAugment](#1.2) - - [1.3 TimmAutoAugment](#1.3) - - [1.4 Cutout](#1.4) - - [1.5 RandomErasing](#1.5) - - [1.6 HideAndSeek](#1.6) - - [1.7 GridMask](#1.7) - - [1.8 Mixup](#1.8) - - [1.9 Cutmix](#1.9) - - [1.10 Mixup 与 Cutmix 同时使用](#1.10) -- [2. 启动命令](#2) -- [3. 注意事项](#3) -- [4. 实验结果](#4) +- [1. 算法介绍](#1) + - [1.1 数据增强简介](#1.1) + - [1.2 图像变换类数据增强](#1.2) + - [1.2.1 AutoAugment](#1.2.1) + - [1.2.1.1 AutoAugment 算法介绍](#1.2.1.1) + - [1.2.1.2 AutoAugment 配置](#1.2.1.2) + - [1.2.2 RandAugment](#1.2.2) + - [1.2.2.1 RandAugment 算法介绍](#1.2.2.1) + - [1.2.2.2 RandAugment 配置](#1.2.2.2) + - [1.2.3 TimmAutoAugment](#1.2.3) + - [1.2.3.1 TimmAutoAugment 算法介绍](#1.2.3.1) + - [1.2.3.2 TimmAutoAugment 配置](#1.2.3.2) + - [1.3 图像裁剪类数据增强](#1.3) + - [1.3.1 Cutout](#1.3.1) + - [1.3.1.1 Cutout 算法介绍](#1.3.1.1) + - [1.3.1.2 Cutout 配置](#1.3.1.2) + - [1.3.2 RandomErasing](#1.3.2) + - [1.3.2.1 RandomErasing 算法介绍](#1.3.2.1) + - [1.3.2.2 RandomErasing 配置](#1.3.2.2) + - [1.3.3 HideAndSeek](#1.3.3) + - [1.3.3.1 HideAndSeek 算法介绍](#1.3.3.1) + - [1.3.3.2 HideAndSeek 配置](#1.3.3.2) + - [1.3.4 GridMask](#1.3.4) + - [1.3.4.1 GridMask 算法介绍](#1.3.4.1) + - [1.3.4.2 GridMask 配置](#1.3.4.2) + - [1.4 图像混叠类数据增强](#1.4) + - [1.4.1 Mixup](#1.4.1) + - [1.4.1.1 Mixup 算法介绍](#1.4.1.1) + - [1.4.1.2 Mixup 配置](#1.4.1.2) + - [1.4.2 Cutmix](#1.4.2) + - [1.4.2.1 Cutmix 算法介绍](#1.4.2.1) + - [1.4.2.2 Cutmix 配置](#1.4.2.2) + - [1.4.2.3 Mixup 和 Cutmix 混合使用配置](#1.4.2.3) +- [2. 模型训练、评估和预测](#2) + - [2.1 环境配置](#2.1) + - [2.2 数据准备](#2.2) + - [2.3 模型训练](#2.3) + - [2.4 模型评估](#2.4) + - [2.5 模型预测](#2.5) +- [3. 模型推理部署](#3) + - [3.1 推理模型准备](#3.1) + - [3.1.1 基于训练得到的权重导出 inference 模型](#3.1.1) + - [3.1.2 直接下载 inference 模型](#3.1.2) + - [3.2 基于 Python 预测引擎推理](#3.2) + - [3.2.1 预测单张图像](#3.2.1) + - [3.2.2 基于文件夹的批量预测](#3.2.2) + - [3.3 基于 C++ 预测引擎推理](#3.3) + - [3.4 服务化部署](#3.4) + - [3.5 端侧部署](#3.5) + - [3.6 Paddle2ONNX 模型转换与预测](#3.6) +- [4. 参考文献](#4) + -## 1. 参数配置 -由于不同的数据增强方式含有不同的超参数,为了便于理解和使用,我们在 `configs/DataAugment` 里分别列举了 8 种训练 ResNet50 的数据增强方式的参数配置文件,用户可以在 `tools/run.sh` 里直接替换配置文件的路径即可使用。此处分别挑选了图像变换、图像裁剪、图像混叠中的一个示例展示,其他参数配置用户可以自查配置文件。 +## 1. 算法介绍 + +在图像分类任务中,图像数据的增广是一种常用的正则化方法,常用于数据量不足或者模型参数较多的场景。在本章节中,我们将对除 ImageNet 分类任务标准数据增强外的 8 种数据增强方式进行简单的介绍和对比,用户也可以将这些增广方法应用到自己的任务中,以获得模型精度的提升。这 8 种数据增强方式在 ImageNet 上的精度指标如下所示。 + +![](../../images/image_aug/main_image_aug.png) + +更具体的指标如下表所示: + + +| 模型 | 初始学习率策略 | l2 decay | batch size | epoch | 数据变化策略 | Top1 Acc | 论文中结论 | +|-------------|------------------|--------------|------------|-------|----------------|------------|----| +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | 标准变换 | 0.7731 | - | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | AutoAugment | 0.7795 | 0.7763 | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | mixup | 0.7828 | 0.7790 | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | cutmix | 0.7839 | 0.7860 | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | cutout | 0.7801 | - | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | gridmask | 0.7785 | 0.7790 | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | random-augment | 0.7770 | 0.7760 | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | random erasing | 0.7791 | - | +| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | hide and seek | 0.7743 | 0.7720 | -### 1.1 AutoAugment + +## 1.1. 数据增强简介 + +如果没有特殊说明,本章节中所有示例为 ImageNet 分类,并且假设最终输入网络的数据维度为:`[batch-size, 3, 224, 224]` + +其中 ImageNet 分类训练阶段的标准数据增强方式分为以下几个步骤: + +1. 图像解码:简写为 `ImageDecode` +2. 随机裁剪到长宽均为 224 的图像:简写为 `RandCrop` +3. 水平方向随机翻转:简写为 `RandFlip` +4. 图像数据的归一化:简写为 `Normalize` +5. 图像数据的重排,`[224, 224, 3]` 变为 `[3, 224, 224]`:简写为 `Transpose` +6. 多幅图像数据组成 batch 数据,如 `batch-size` 个 `[3, 224, 224]` 的图像数据拼组成 `[batch-size, 3, 224, 224]`:简写为 `Batch` + +相比于上述标准的图像增广方法,研究者也提出了很多改进的图像增广策略,这些策略均是在标准增广方法的不同阶段插入一定的操作,基于这些策略操作所处的不同阶段,我们将其分为了三类: + +1. 对 `RandCrop` 后的 224 的图像进行一些变换: AutoAugment,RandAugment +2. 对 `Transpose` 后的 224 的图像进行一些裁剪: CutOut,RandErasing,HideAndSeek,GridMask +3. 对 `Batch` 后的数据进行混合: Mixup,Cutmix + +增广后的可视化效果如下所示。 + +![](../../images/image_aug/image_aug_samples_s.jpg) + +具体如下表所示: + + +| 变换方法 | 输入 | 输出 | Auto-
Augment\[1\] | Rand-
Augment\[2\] | CutOut\[3\] | Rand
Erasing\[4\] | HideAnd-
Seek\[5\] | GridMask\[6\] | Mixup\[7\] | Cutmix\[8\] | +|-------------|---------------------------|---------------------------|------------------|------------------|-------------|------------------|------------------|---------------|------------|------------| +| Image
Decode | Binary | (224, 224, 3)
uint8 | Y | Y | Y | Y | Y | Y | Y | Y | +| RandCrop | (:, :, 3)
uint8 | (224, 224, 3)
uint8 | Y | Y | Y | Y | Y | Y | Y | Y | +| **Process** | (224, 224, 3)
uint8 | (224, 224, 3)
uint8 | Y | Y | \- | \- | \- | \- | \- | \- | +| RandFlip | (224, 224, 3)
uint8 | (224, 224, 3)
float32 | Y | Y | Y | Y | Y | Y | Y | Y | +| Normalize | (224, 224, 3)
uint8 | (3, 224, 224)
float32 | Y | Y | Y | Y | Y | Y | Y | Y | +| Transpose | (224, 224, 3)
float32 | (3, 224, 224)
float32 | Y | Y | Y | Y | Y | Y | Y | Y | +| **Process** | (3, 224, 224)
float32 | (3, 224, 224)
float32 | \- | \- | Y | Y | Y | Y | \- | \- | +| Batch | (3, 224, 224)
float32 | (N, 3, 224, 224)
float32 | Y | Y | Y | Y | Y | Y | Y | Y | +| **Process** | (N, 3, 224, 224)
float32 | (N, 3, 224, 224)
float32 | \- | \- | \- | \- | \- | \- | Y | Y | + + +PaddleClas 中集成了上述所有的数据增强策略,每种数据增强策略的参考论文与参考开源代码均在下面的介绍中列出。下文将介绍这些策略的原理与使用方法,并以下图为例,对变换后的效果进行可视化。为了说明问题,本章节中将 `RandCrop` 替换为 `Resize`。 + +![][test_baseline] + + + +### 1.2 图像变换类 + +图像变换类指的是对 `RandCrop` 后的 224 的图像进行一些变换,主要包括 + ++ AutoAugment ++ RandAugment ++ TimmAutoAugment + + + +#### 1.2.1 AutoAugment + + + +##### 1.2.1.1 AutoAugment 算法介绍 + +论文地址:[https://arxiv.org/abs/1805.09501v1](https://arxiv.org/abs/1805.09501v1) + +开源代码 github 地址:[https://github.com/DeepVoltaire/AutoAugment](https://github.com/DeepVoltaire/AutoAugment) + +不同于常规的人工设计图像增广方式,AutoAugment 是在一系列图像增广子策略的搜索空间中通过搜索算法找到的适合特定数据集的图像增广方案。针对 ImageNet 数据集,最终搜索出来的数据增强方案包含 25 个子策略组合,每个子策略中都包含两种变换,针对每幅图像都随机的挑选一个子策略组合,然后以一定的概率来决定是否执行子策略中的每种变换。 + +经过 AutoAugment 数据增强后结果如下图所示。 + +![][test_autoaugment] + + + +##### 1.2.1.2 AutoAugment 配置 `AotoAugment` 的图像增广方式的配置如下。`AutoAugment` 是在 uint8 的数据格式上转换的,所以其处理过程应该放在归一化操作(`NormalizeImage`)之前。 @@ -48,8 +175,31 @@ order: '' ``` - -### 1.2 RandAugment + + +#### 1.2.2 RandAugment + + + +##### 1.2.2.1 RandAugment 算法介绍 + +论文地址:[https://arxiv.org/pdf/1909.13719.pdf](https://arxiv.org/pdf/1909.13719.pdf) + +开源代码 github 地址:[https://github.com/heartInsert/randaugment](https://github.com/heartInsert/randaugment) + + +`AutoAugment` 的搜索方法比较暴力,直接在数据集上搜索针对该数据集的最优策略,其计算量很大。在 `RandAugment` 文章中作者发现,一方面,针对越大的模型,越大的数据集,使用 `AutoAugment` 方式搜索到的增广方式产生的收益也就越小;另一方面,这种搜索出的最优策略是针对该数据集的,其迁移能力较差,并不太适合迁移到其他数据集上。 + +在 `RandAugment` 中,作者提出了一种随机增广的方式,不再像 `AutoAugment` 中那样使用特定的概率确定是否使用某种子策略,而是所有的子策略都会以同样的概率被选择到,论文中的实验也表明这种数据增强方式即使在大模型的训练中也具有很好的效果。 + + +经过 RandAugment 数据增强后结果如下图所示。 + +![][test_randaugment] + + + +##### 1.2.2.2 RandAugment 配置 `RandAugment` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `num_layers` 与 `magnitude`,默认的数值分别是 `2` 和 `5`。`RandAugment` 是在 uint8 的数据格式上转换的,所以其处理过程应该放在归一化操作(`NormalizeImage`)之前。 @@ -72,8 +222,21 @@ order: '' ``` - -### 1.3 TimmAutoAugment + + +#### 1.2.3 TimmAutoAugment + + + +##### 1.2.3.1 TimmAutoAugment 算法介绍 + +开源代码 github 地址:[https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/auto_augment.py](https://github.com/rwightman/pytorch-image-models/blob/master/timm/data/auto_augment.py) + +`TimmAutoAugment` 是开源作者对 AutoAugment 和 RandAugment 的改进,事实证明,其在很多视觉任务上有更好的表现,目前绝大多数 VisionTransformer 模型都是基于 TimmAutoAugment 去实现的。 + + + +##### 1.2.3.2 TimmAutoAugment 配置 `TimmAutoAugment` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `config_str`、`interpolation`、`img_size`,默认的数值分别是 `rand-m9-mstd0.5-inc1`、`bicubic`、`224`。`TimmAutoAugment` 是在 uint8 的数据格式上转换的,所以其处理过程应该放在归一化操作(`NormalizeImage`)之前。 @@ -97,8 +260,43 @@ order: '' ``` - -### 1.4 Cutout + + +### 1.3 图像裁剪类 + +图像裁剪类主要是对 `Transpose` 后的 224 的图像进行一些裁剪,并将裁剪区域的像素值置为特定的常数(默认为 0),主要包括: + ++ CutOut ++ RandErasing ++ HideAndSeek ++ GridMask + +图像裁剪的这些增广并非一定要放在归一化之后,也有不少实现是放在归一化之前的,也就是直接对 uint8 的图像进行操作,两种方式的差别是:如果直接对 uint8 的图像进行操作,那么再经过归一化之后被裁剪的区域将不再是纯黑或纯白(减均值除方差之后像素值不为 0)。而对归一后之后的数据进行操作,裁剪的区域会是纯黑或纯白。 + +上述的裁剪变换思路是相同的,都是为了解决训练出的模型在有遮挡数据上泛化能力较差的问题,不同的是他们的裁剪方式、区域不太一样。 + + + +#### 1.3.1 Cutout + + + +##### 1.3.1.1 Cutout 算法介绍 + +论文地址:[https://arxiv.org/abs/1708.04552](https://arxiv.org/abs/1708.04552) + +开源代码 github 地址:[https://github.com/uoguelph-mlrg/Cutout](https://github.com/uoguelph-mlrg/Cutout) + +Cutout 可以理解为 Dropout 的一种扩展操作,不同的是 Dropout 是对图像经过网络后生成的特征进行遮挡,而 Cutout 是直接对输入的图像进行遮挡,相对于 Dropout 对噪声的鲁棒性更好。作者在论文中也进行了说明,这样做法有以下两点优势:(1)通过 Cutout 可以模拟真实场景中主体被部分遮挡时的分类场景;(2)可以促进模型充分利用图像中更多的内容来进行分类,防止网络只关注显著性的图像区域,从而发生过拟合。 + + +经过 RandAugment 数据增强后结果如下图所示。 + +![][test_cutout] + + + +##### 1.3.1.2 Cutout 配置 `Cutout` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `n_holes` 与 `length`,默认的数值分别是 `1` 和 `112`。类似其他图像裁剪类的数据增强方式,`Cutout` 既可以在 uint8 格式的数据上操作,也可以在归一化)(`NormalizeImage`)后的数据上操作,此处给出的是在归一化后的操作。 @@ -121,8 +319,31 @@ length: 112 ``` - -### 1.5 RandomErasing + + + +#### 1.3.2 RandomErasing + + + +##### 1.3.2.1 RandomErasing 算法介绍 + +论文地址:[https://arxiv.org/pdf/1708.04896.pdf](https://arxiv.org/pdf/1708.04896.pdf) + +开源代码 github 地址:[https://github.com/zhunzhong07/Random-Erasing](https://github.com/zhunzhong07/Random-Erasing) + +`RandomErasing` 与 `Cutout` 方法类似,同样是为了解决训练出的模型在有遮挡数据上泛化能力较差的问题,作者在论文中也指出,随机裁剪的方式与随机水平翻转具有一定的互补性。作者也在行人再识别(REID)上验证了该方法的有效性。与 `Cutout` 不同的是,在 `RandomErasing` 中,图片以一定的概率接受该种预处理方法,生成掩码的尺寸大小与长宽比也是根据预设的超参数随机生成。 + + +PaddleClas 中 `RandomErasing` 的使用方法如下所示。 + +经过 RandomErasing 数据增强后结果如下图所示。 + +![][test_randomerassing] + + + +##### 1.3.2.2 RandomErasing 配置 `RandomErasing` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `EPSILON`、`sl`、`sh`、`r1`、`attempt`、`use_log_aspect`、`mode`,默认的数值分别是 `0.25`、`0.02`、`1.0/3.0`、`0.3`、`10`、`True`、`pixel`。类似其他图像裁剪类的数据增强方式,`RandomErasing` 既可以在 uint8 格式的数据上操作,也可以在归一化(`NormalizeImage`)后的数据上操作,此处给出的是在归一化后的操作。 @@ -150,8 +371,35 @@ mode: pixel ``` - -### 1.6 HideAndSeek + + +#### 1.3.3 HideAndSeek + + + +##### 1.3.3.1 HideAndSeek 算法介绍 + +论文地址:[https://arxiv.org/pdf/1811.02545.pdf](https://arxiv.org/pdf/1811.02545.pdf) + +开源代码 github 地址:[https://github.com/kkanshul/Hide-and-Seek](https://github.com/kkanshul/Hide-and-Seek) + + +`HideAndSeek` 论文将图像分为若干块区域(patch),对于每块区域,都以一定的概率生成掩码,不同区域的掩码含义如下图所示。 + + +![][hide_and_seek_mask_expanation] + + +PaddleClas 中 `HideAndSeek` 的使用方法如下所示。 + + +经过 HideAndSeek 数据增强后结果如下图所示。 + +![][test_hideandseek] + + + +##### 1.3.3.2 HideAndSeek 配置 `HideAndSeek` 的图像增广方式的配置如下。类似其他图像裁剪类的数据增强方式,`HideAndSeek` 既可以在 uint8 格式的数据上操作,也可以在归一化(`NormalizeImage`)后的数据上操作,此处给出的是在归一化后的操作。 @@ -172,9 +420,43 @@ - HideAndSeek: ``` - + + +#### 1.3.4 GridMask + + + +##### 1.3.4.1 GridMask 算法介绍 + +论文地址:[https://arxiv.org/abs/2001.04086](https://arxiv.org/abs/2001.04086) + +开源代码 github 地址:[https://github.com/akuxcw/GridMask](https://github.com/akuxcw/GridMask) + + +作者在论文中指出,此前存在的基于对图像 crop 的方法存在两个问题,如下图所示: + +1. 过度删除区域可能造成目标主体大部分甚至全部被删除,或者导致上下文信息的丢失,导致增广后的数据成为噪声数据; +2. 保留过多的区域,对目标主体及上下文基本产生不了什么影响,失去增广的意义。 + +![][gridmask-0] + +因此如果避免过度删除或过度保留成为需要解决的核心问题。 + + +`GridMask` 是通过生成一个与原图分辨率相同的掩码,并将掩码进行随机翻转,与原图相乘,从而得到增广后的图像,通过超参数控制生成的掩码网格的大小。 + + +在训练过程中,有两种以下使用方法: +1. 设置一个概率 p,从训练开始就对图片以概率 p 使用 `GridMask` 进行增广。 +2. 一开始设置增广概率为 0,随着迭代轮数增加,对训练图片进行 `GridMask` 增广的概率逐渐增大,最后变为 p。 + +论文中验证上述第二种方法的训练效果更好一些。 + +经过 GridMask 数据增强后结果如下图所示。 -### 1.7 GridMask + + +##### 1.3.4.2 GridMask 配置 `GridMask` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `d1`、`d2`、`rotate`、`ratio`、`mode`, 默认的数值分别是 `96`、`224`、`1`、`0.5`、`0`。类似其他图像裁剪类的数据增强方式,`GridMask` 既可以在 uint8 格式的数据上操作,也可以在归一化(`NormalizeImage`)后的数据上操作,此处给出的是在归一化后的操作。 @@ -200,8 +482,43 @@ mode: 0 ``` - -### 1.8 Mixup +![][test_gridmask] + + + +### 1.4 图像混叠类 + +图像混叠主要对 `Batch` 后的数据进行混合,包括: + ++ Mixup ++ Cutmix + +前文所述的图像变换与图像裁剪都是针对单幅图像进行的操作,而图像混叠是对两幅图像进行融合,生成一幅图像,两种方法的主要区别为混叠的方式不太一样。 + + + +#### 1.4.1 Mixup + + + +##### 1.4.1.1 Mixup 算法介绍 + +论文地址:[https://arxiv.org/pdf/1710.09412.pdf](https://arxiv.org/pdf/1710.09412.pdf) + +开源代码 github 地址:[https://github.com/facebookresearch/mixup-cifar10](https://github.com/facebookresearch/mixup-cifar10) + +Mixup 是最先提出的图像混叠增广方案,其原理简单、方便实现,不仅在图像分类上,在目标检测上也取得了不错的效果。为了便于实现,通常只对一个 batch 内的数据进行混叠,在 `Cutmix` 中也是如此。 + +如下是 `imaug` 中的实现,需要指出的是,下述实现会出现对同一幅进行相加的情况,也就是最终得到的图和原图一样,随着 `batch-size` 的增加这种情况出现的概率也会逐渐减小。 + + +经过 Mixup 数据增强结果如下图所示。 + +![][test_mixup] + + + +##### 1.4.1.2 Mixup 配置 `Mixup` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `alpha`,默认的数值是 `0.2`。类似其他图像混合类的数据增强方式,`Mixup` 是在图像做完数据处理后将每个 batch 内的数据做图像混叠,将混叠后的图像和标签输入网络中训练,所以其是在图像数据处理(图像变换、图像裁剪)后操作。 @@ -224,8 +541,26 @@ alpha: 0.2 ``` - -### 1.9 Cutmix + +#### 1.4.2 Cutmix + + + +##### 1.4.2.1 Cutmix 算法介绍 + +论文地址:[https://arxiv.org/pdf/1905.04899v2.pdf](https://arxiv.org/pdf/1905.04899v2.pdf) + +开源代码 github 地址:[https://github.com/clovaai/CutMix-PyTorch](https://github.com/clovaai/CutMix-PyTorch) + +与 `Mixup` 直接对两幅图进行相加不一样,`Cutmix` 是从一幅图中随机裁剪出一个 `ROI`,然后覆盖当前图像中对应的区域,代码实现如下所示: + +经过 Cutmix 数据增强后结果如下图所示。 + +![][test_cutmix] + + + +##### 1.4.2.2 Cutmix 配置 `Cutmix` 的图像增广方式的配置如下,其中用户需要指定其中的参数 `alpha`,默认的数值是 `0.2`。类似其他图像混合类的数据增强方式,`Cutmix` 是在图像做完数据处理后将每个 batch 内的数据做图像混叠,将混叠后的图像和标签输入网络中训练,所以其是在图像数据处理(图像变换、图像裁剪)后操作。 @@ -248,8 +583,9 @@ alpha: 0.2 ``` - -### 1.10 Mixup 与 Cutmix 同时使用 + + +##### 1.4.2.3 Mixup 和 Cutmix 混合使用配置 `Mixup` 与 `Cutmix` 同时使用的配置如下,其中用户需要指定额外的参数 `prob`,该参数控制不同数据增强的概率,默认为 `0.5`。 @@ -277,55 +613,258 @@ ``` -## 2. 启动命令 -当用户配置完训练环境后,类似于训练其他分类任务,只需要将 `tools/train.sh` 中的配置文件替换成为相应的数据增强方式的配置文件即可。 +## 2. 模型训练、评估和预测 + + -其中 `train.sh` 中的内容如下: +### 2.1 环境配置 -```bash +* 安装:请先参考 [Paddle 安装教程](../installation/install_paddle.md) 以及 [PaddleClas 安装教程](../installation/install_paddleclas.md) 配置 PaddleClas 运行环境。 + + + +### 2.2 数据准备 + +请在[ImageNet 官网](https://www.image-net.org/)准备 ImageNet-1k 相关的数据。 + +进入 PaddleClas 目录。 + +``` +cd path_to_PaddleClas +``` + +进入 `dataset/` 目录,将下载好的数据命名为 `ILSVRC2012` ,存放于此。 `ILSVRC2012` 目录中具有以下数据: + +``` +├── train +│   ├── n01440764 +│   │   ├── n01440764_10026.JPEG +│   │   ├── n01440764_10027.JPEG +├── train_list.txt +... +├── val +│   ├── ILSVRC2012_val_00000001.JPEG +│   ├── ILSVRC2012_val_00000002.JPEG +├── val_list.txt +``` + +其中 `train/` 和 `val/` 分别为训练集和验证集。`train_list.txt` 和 `val_list.txt` 分别为训练集和验证集的标签文件。 + +**备注:** + +* 关于 `train_list.txt`、`val_list.txt`的格式说明,可以参考[PaddleClas分类数据集格式说明](../data_preparation/classification_dataset.md#1-数据集格式说明) 。 + + + + +### 2.3 模型训练 + + +在 `ppcls/configs/ImageNet/DataAugment` 中提供了基于 ResNet50 的不同的数据增强的训练配置,这里以使用 `AutoAugment` 为例,介绍数据增强的使用方法。可以通过如下脚本启动训练: + +```shell +export CUDA_VISIBLE_DEVICES=0,1,2,3 python3 -m paddle.distributed.launch \ - --selected_gpus="0,1,2,3" \ - --log_dir=ResNet50_Cutout \ + --gpus="0,1,2,3" \ tools/train.py \ - -c ./ppcls/configs/ImageNet/DataAugment/ResNet50_Cutout.yaml + -c ppcls/configs/ImageNet/DataAugment/ResNet50_AutoAugment.yaml ``` -运行 `train.sh`: + +**备注:** + +* 1.当前精度最佳的模型会保存在 `output/ResNet50/best_model.pdparams`。 +* 2.如需更改数据增强类型,只需要替换`ppcls/configs/ImageNet/DataAugment`中的其他的配置文件即可。 +* 3.如果希望多种数据增强混合使用,请参考[第 2 节](#2)中的相关配置更改配置文件中的数据增强即可。 +* 4.由于图像混叠时需对 label 进行混叠,无法计算训练数据的准确率,所以在训练过程中没有打印训练准确率。 +* 5.在使用数据增强后,由于训练数据更难,所以训练损失函数可能较大,训练集的准确率相对较低,但其有拥更好的泛化能力,所以验证集的准确率相对较高。 +* 6.在使用数据增强后,模型可能会趋于欠拟合状态,建议可以适当的调小 `l2_decay` 的值来获得更高的验证集准确率。 +* 7.几乎每一类图像增强均含有超参数,我们只提供了基于 ImageNet-1k 的超参数,其他数据集需要用户自己调试超参数,具体超参数的含义用户可以阅读相关的论文,调试方法也可以参考[训练技巧](../models_training/train_strategy.md)。 + + + +### 2.4 模型评估 + +训练好模型之后,可以通过以下命令实现对模型指标的评估。 ```bash -sh tools/train.sh +python3 tools/eval.py \ + -c ppcls/configs/ImageNet/DataAugment/ResNet50_AutoAugment.yaml \ + -o Global.pretrained_model=output/ResNet50/best_model +``` + +其中 `-o Global.pretrained_model="output/ResNet50/best_model"` 指定了当前最佳权重所在的路径,如果指定其他权重,只需替换对应的路径即可。 + + + +### 2.5 模型预测 + +模型训练完成之后,可以加载训练得到的预训练模型,进行模型预测。在模型库的 `tools/infer.py` 中提供了完整的示例,只需执行下述命令即可完成模型预测: + +```python +python3 tools/infer.py \ + -c ppcls/configs/ImageNet/DataAugment/ResNet50_AutoAugment.yaml \ + -o Global.pretrained_model=output/ResNet50/best_model +``` + +输出结果如下: + +``` +[{'class_ids': [8, 7, 86, 81, 85], 'scores': [0.91347, 0.03779, 0.0036, 0.00117, 0.00112], 'file_name': 'docs/images/inference_deployment/whl_demo.jpg', 'label_names': ['hen', 'cock', 'partridge', 'ptarmigan', 'quail']}] ``` +**备注:** + +* 这里`-o Global.pretrained_model="output/ResNet50/best_model"` 指定了当前最佳权重所在的路径,如果指定其他权重,只需替换对应的路径即可。 + +* 默认是对 `docs/images/inference_deployment/whl_demo.jpg` 进行预测,此处也可以通过增加字段 `-o Infer.infer_imgs=xxx` 对其他图片预测。 + +* 默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定`-o Infer.PostProcess.topk=k`,其中,`k` 为您指定的值。 + + + -## 3. 注意事项 -* 由于图像混叠时需对 label 进行混叠,无法计算训练数据的准确率,所以在训练过程中没有打印训练准确率。 +## 3. 模型推理部署 + + + +### 3.1 推理模型准备 + +Paddle Inference 是飞桨的原生推理库, 作用于服务器端和云端,提供高性能的推理能力。相比于直接基于预训练模型进行预测,Paddle Inference可使用MKLDNN、CUDNN、TensorRT 进行预测加速,从而实现更优的推理性能。更多关于Paddle Inference推理引擎的介绍,可以参考[Paddle Inference官网教程](https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/infer/inference/inference_cn.html)。 + +当使用 Paddle Inference 推理时,加载的模型类型为 inference 模型。此处,我们提供了将权重和模型转换的脚本,执行该脚本可以得到对应的 inference 模型: + +```bash +python3 tools/export_model.py \ + -c ppcls/configs/ImageNet/DataAugment/ResNet50_AutoAugment.yaml \ + -o Global.pretrained_model=output/ResNet50/best_model \ + -o Global.save_inference_dir=deploy/models/ResNet50_AutoAugment_infer +``` +执行完该脚本后会在 `deploy/models/` 下生成 `ResNet50_AutoAugment_infer` 文件夹,`models` 文件夹下应有如下文件结构: + +``` +├── ResNet50_AutoAugment_infer +│ ├── inference.pdiparams +│ ├── inference.pdiparams.info +│ └── inference.pdmodel +``` + + + + +### 3.2 基于 Python 预测引擎推理 + + + + +#### 3.2.1 预测单张图像 + +返回 `deploy` 目录: -* 在使用数据增强后,由于训练数据更难,所以训练损失函数可能较大,训练集的准确率相对较低,但其有拥更好的泛化能力,所以验证集的准确率相对较高。 +``` +cd ../ +``` + +运行下面的命令,对图像 `./images/ImageNet/ILSVRC2012_val_00000010.jpeg` 进行分类。 + +```shell +# 使用下面的命令使用 GPU 进行预测 +python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer +# 使用下面的命令使用 CPU 进行预测 +python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer -o Global.use_gpu=False +``` + +输出结果如下。 + +``` +ILSVRC2012_val_00000010.jpeg: class id(s): [153, 265, 204, 283, 229], score(s): [0.61, 0.11, 0.05, 0.03, 0.02], label_name(s): ['Maltese dog, Maltese terrier, Maltese', 'toy poodle', 'Lhasa, Lhasa apso', 'Persian cat', 'Old English sheepdog, bobtail'] +``` -* 在使用数据增强后,模型可能会趋于欠拟合状态,建议可以适当的调小 `l2_decay` 的值来获得更高的验证集准确率。 + + +#### 3.2.2 基于文件夹的批量预测 + +如果希望预测文件夹内的图像,可以直接修改配置文件中的 `Global.infer_imgs` 字段,也可以通过下面的 `-o` 参数修改对应的配置。 + +```shell +# 使用下面的命令使用 GPU 进行预测,如果希望使用 CPU 预测,可以在命令后面添加 -o Global.use_gpu=False +python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer -o Global.infer_imgs=images/ImageNet/ +``` + +终端中会输出该文件夹内所有图像的分类结果,如下所示。 + +``` +ILSVRC2012_val_00000010.jpeg: class id(s): [153, 265, 204, 283, 229], score(s): [0.61, 0.11, 0.05, 0.03, 0.02], label_name(s): ['Maltese dog, Maltese terrier, Maltese', 'toy poodle', 'Lhasa, Lhasa apso', 'Persian cat', 'Old English sheepdog, bobtail'] +ILSVRC2012_val_00010010.jpeg: class id(s): [695, 551, 507, 531, 419], score(s): [0.11, 0.06, 0.03, 0.03, 0.03], label_name(s): ['padlock', 'face powder', 'combination lock', 'digital watch', 'Band Aid'] +ILSVRC2012_val_00020010.jpeg: class id(s): [178, 211, 209, 210, 236], score(s): [0.87, 0.03, 0.01, 0.00, 0.00], label_name(s): ['Weimaraner', 'vizsla, Hungarian pointer', 'Chesapeake Bay retriever', 'German short-haired pointer', 'Doberman, Doberman pinscher'] +ILSVRC2012_val_00030010.jpeg: class id(s): [80, 23, 93, 81, 99], score(s): [0.87, 0.01, 0.01, 0.01, 0.00], label_name(s): ['black grouse', 'vulture', 'hornbill', 'ptarmigan', 'goose'] +``` -* 几乎每一类图像增强均含有超参数,我们只提供了基于 ImageNet-1k 的超参数,其他数据集需要用户自己调试超参数,具体超参数的含义用户可以阅读相关的论文,调试方法也可以参考[训练技巧](../models_training/train_strategy.md)。 + + + +### 3.3 基于 C++ 预测引擎推理 + +PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服务器端 C++ 预测](../inference_deployment/cpp_deploy.md)来完成相应的推理部署。如果您使用的是 Windows 平台,可以参考[基于 Visual Studio 2019 Community CMake 编译指南](../inference_deployment/cpp_deploy_on_windows.md)完成相应的预测库编译和模型预测工作。 + + + +### 3.4 服务化部署 + +Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)。 + +PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../inference_deployment/paddle_serving_deploy.md)来完成相应的部署工作。 + + + +### 3.5 端侧部署 + +Paddle Lite 是一个高性能、轻量级、灵活性强且易于扩展的深度学习推理框架,定位于支持包括移动端、嵌入式以及服务器端在内的多硬件平台。更多关于 Paddle Lite 的介绍,可以参考[Paddle Lite 代码仓库](https://github.com/PaddlePaddle/Paddle-Lite)。 + +PaddleClas 提供了基于 Paddle Lite 来完成模型端侧部署的示例,您可以参考[端侧部署](../inference_deployment/paddle_lite_deploy.md)来完成相应的部署工作。 + + + +### 3.6 Paddle2ONNX 模型转换与预测 + +Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式。通过 ONNX 可以完成将 Paddle 模型到多种推理引擎的部署,包括TensorRT/OpenVINO/MNN/TNN/NCNN,以及其它对 ONNX 开源格式进行支持的推理引擎或硬件。更多关于 Paddle2ONNX 的介绍,可以参考[Paddle2ONNX 代码仓库](https://github.com/PaddlePaddle/Paddle2ONNX)。 + +PaddleClas 提供了基于 Paddle2ONNX 来完成 inference 模型转换 ONNX 模型并作推理预测的示例,您可以参考[Paddle2ONNX 模型转换与预测](@shuilong)来完成相应的部署工作。 -## 4. 实验结果 -基于 PaddleClas,在 ImageNet1k 数据集上的分类精度如下。 +## 4.参考文献 + +[1] Cubuk E D, Zoph B, Mane D, et al. Autoaugment: Learning augmentation strategies from data[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2019: 113-123. + + +[2] Cubuk E D, Zoph B, Shlens J, et al. Randaugment: Practical automated data augmentation with a reduced search space[J]. arXiv preprint arXiv:1909.13719, 2019. + +[3] DeVries T, Taylor G W. Improved regularization of convolutional neural networks with cutout[J]. arXiv preprint arXiv:1708.04552, 2017. + +[4] Zhong Z, Zheng L, Kang G, et al. Random erasing data augmentation[J]. arXiv preprint arXiv:1708.04896, 2017. + +[5] Singh K K, Lee Y J. Hide-and-seek: Forcing a network to be meticulous for weakly-supervised object and action localization[C]//2017 IEEE international conference on computer vision (ICCV). IEEE, 2017: 3544-3553. + +[6] Chen P. GridMask Data Augmentation[J]. arXiv preprint arXiv:2001.04086, 2020. + +[7] Zhang H, Cisse M, Dauphin Y N, et al. mixup: Beyond empirical risk minimization[J]. arXiv preprint arXiv:1710.09412, 2017. + +[8] Yun S, Han D, Oh S J, et al. Cutmix: Regularization strategy to train strong classifiers with localizable features[C]//Proceedings of the IEEE International Conference on Computer Vision. 2019: 6023-6032. + -| 模型 | 初始学习率策略 | l2 decay | batch size | epoch | 数据变化策略 | Top1 Acc | 论文中结论 | -|-------------|------------------|--------------|------------|-------|----------------|------------|----| -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | 标准变换 | 0.7731 | - | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | AutoAugment | 0.7795 | 0.7763 | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | mixup | 0.7828 | 0.7790 | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | cutmix | 0.7839 | 0.7860 | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | cutout | 0.7801 | - | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | gridmask | 0.7785 | 0.7790 | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | random-augment | 0.7770 | 0.7760 | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | random erasing | 0.7791 | - | -| ResNet50 | 0.1/cosine_decay | 0.0001 | 256 | 300 | hide and seek | 0.7743 | 0.7720 | -**注意**: -* 在这里的实验中,为了便于对比,我们将 l2 decay 固定设置为 1e-4,在实际使用中,我们推荐尝试使用更小的 l2 decay。结合数据增强,我们发现将 l2 decay 由 1e-4 减小为 7e-5 均能带来至少 0.3~0.5% 的精度提升。 -* 我们目前尚未对不同策略进行组合并验证效果,这一块后续我们会开展更多的对比实验,敬请期待。 +[test_baseline]: ../../images/image_aug/test_baseline.jpeg +[test_autoaugment]: ../../images/image_aug/test_autoaugment.jpeg +[test_cutout]: ../../images/image_aug/test_cutout.jpeg +[test_gridmask]: ../../images/image_aug/test_gridmask.jpeg +[gridmask-0]: ../../images/image_aug/gridmask-0.png +[test_hideandseek]: ../../images/image_aug/test_hideandseek.jpeg +[test_randaugment]: ../../images/image_aug/test_randaugment.jpeg +[test_randomerassing]: ../../images/image_aug/test_randomerassing.jpeg +[hide_and_seek_mask_expanation]: ../../images/image_aug/hide-and-seek-visual.png +[test_mixup]: ../../images/image_aug/test_mixup.png +[test_cutmix]: ../../images/image_aug/test_cutmix.png \ No newline at end of file From 01a6c045df82abac3f1f7d16a7f284b20268a216 Mon Sep 17 00:00:00 2001 From: cuicheng01 Date: Tue, 7 Jun 2022 07:16:29 +0000 Subject: [PATCH 2/3] update DataAugmentation.md --- .../advanced_tutorials/DataAugmentation.md | 126 +----------------- 1 file changed, 3 insertions(+), 123 deletions(-) diff --git a/docs/zh_CN/advanced_tutorials/DataAugmentation.md b/docs/zh_CN/advanced_tutorials/DataAugmentation.md index 0e509b28ed..a51a1f72e6 100644 --- a/docs/zh_CN/advanced_tutorials/DataAugmentation.md +++ b/docs/zh_CN/advanced_tutorials/DataAugmentation.md @@ -42,18 +42,7 @@ - [2.3 模型训练](#2.3) - [2.4 模型评估](#2.4) - [2.5 模型预测](#2.5) -- [3. 模型推理部署](#3) - - [3.1 推理模型准备](#3.1) - - [3.1.1 基于训练得到的权重导出 inference 模型](#3.1.1) - - [3.1.2 直接下载 inference 模型](#3.1.2) - - [3.2 基于 Python 预测引擎推理](#3.2) - - [3.2.1 预测单张图像](#3.2.1) - - [3.2.2 基于文件夹的批量预测](#3.2.2) - - [3.3 基于 C++ 预测引擎推理](#3.3) - - [3.4 服务化部署](#3.4) - - [3.5 端侧部署](#3.5) - - [3.6 Paddle2ONNX 模型转换与预测](#3.6) -- [4. 参考文献](#4) +- [3. 参考文献](#4) @@ -724,119 +713,10 @@ python3 tools/infer.py \ * 默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定`-o Infer.PostProcess.topk=k`,其中,`k` 为您指定的值。 - - - -## 3. 模型推理部署 - - - -### 3.1 推理模型准备 - -Paddle Inference 是飞桨的原生推理库, 作用于服务器端和云端,提供高性能的推理能力。相比于直接基于预训练模型进行预测,Paddle Inference可使用MKLDNN、CUDNN、TensorRT 进行预测加速,从而实现更优的推理性能。更多关于Paddle Inference推理引擎的介绍,可以参考[Paddle Inference官网教程](https://www.paddlepaddle.org.cn/documentation/docs/zh/guides/infer/inference/inference_cn.html)。 - -当使用 Paddle Inference 推理时,加载的模型类型为 inference 模型。此处,我们提供了将权重和模型转换的脚本,执行该脚本可以得到对应的 inference 模型: - -```bash -python3 tools/export_model.py \ - -c ppcls/configs/ImageNet/DataAugment/ResNet50_AutoAugment.yaml \ - -o Global.pretrained_model=output/ResNet50/best_model \ - -o Global.save_inference_dir=deploy/models/ResNet50_AutoAugment_infer -``` -执行完该脚本后会在 `deploy/models/` 下生成 `ResNet50_AutoAugment_infer` 文件夹,`models` 文件夹下应有如下文件结构: - -``` -├── ResNet50_AutoAugment_infer -│ ├── inference.pdiparams -│ ├── inference.pdiparams.info -│ └── inference.pdmodel -``` - - - - -### 3.2 基于 Python 预测引擎推理 - - - - -#### 3.2.1 预测单张图像 - -返回 `deploy` 目录: - -``` -cd ../ -``` - -运行下面的命令,对图像 `./images/ImageNet/ILSVRC2012_val_00000010.jpeg` 进行分类。 - -```shell -# 使用下面的命令使用 GPU 进行预测 -python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer -# 使用下面的命令使用 CPU 进行预测 -python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer -o Global.use_gpu=False -``` - -输出结果如下。 - -``` -ILSVRC2012_val_00000010.jpeg: class id(s): [153, 265, 204, 283, 229], score(s): [0.61, 0.11, 0.05, 0.03, 0.02], label_name(s): ['Maltese dog, Maltese terrier, Maltese', 'toy poodle', 'Lhasa, Lhasa apso', 'Persian cat', 'Old English sheepdog, bobtail'] -``` - - - -#### 3.2.2 基于文件夹的批量预测 - -如果希望预测文件夹内的图像,可以直接修改配置文件中的 `Global.infer_imgs` 字段,也可以通过下面的 `-o` 参数修改对应的配置。 - -```shell -# 使用下面的命令使用 GPU 进行预测,如果希望使用 CPU 预测,可以在命令后面添加 -o Global.use_gpu=False -python3 python/predict_cls.py -c configs/inference_cls.yaml -o Global.inference_model_dir=models/ResNet50_AutoAugment_infer -o Global.infer_imgs=images/ImageNet/ -``` - -终端中会输出该文件夹内所有图像的分类结果,如下所示。 - -``` -ILSVRC2012_val_00000010.jpeg: class id(s): [153, 265, 204, 283, 229], score(s): [0.61, 0.11, 0.05, 0.03, 0.02], label_name(s): ['Maltese dog, Maltese terrier, Maltese', 'toy poodle', 'Lhasa, Lhasa apso', 'Persian cat', 'Old English sheepdog, bobtail'] -ILSVRC2012_val_00010010.jpeg: class id(s): [695, 551, 507, 531, 419], score(s): [0.11, 0.06, 0.03, 0.03, 0.03], label_name(s): ['padlock', 'face powder', 'combination lock', 'digital watch', 'Band Aid'] -ILSVRC2012_val_00020010.jpeg: class id(s): [178, 211, 209, 210, 236], score(s): [0.87, 0.03, 0.01, 0.00, 0.00], label_name(s): ['Weimaraner', 'vizsla, Hungarian pointer', 'Chesapeake Bay retriever', 'German short-haired pointer', 'Doberman, Doberman pinscher'] -ILSVRC2012_val_00030010.jpeg: class id(s): [80, 23, 93, 81, 99], score(s): [0.87, 0.01, 0.01, 0.01, 0.00], label_name(s): ['black grouse', 'vulture', 'hornbill', 'ptarmigan', 'goose'] -``` - - - - -### 3.3 基于 C++ 预测引擎推理 -PaddleClas 提供了基于 C++ 预测引擎推理的示例,您可以参考[服务器端 C++ 预测](../inference_deployment/cpp_deploy.md)来完成相应的推理部署。如果您使用的是 Windows 平台,可以参考[基于 Visual Studio 2019 Community CMake 编译指南](../inference_deployment/cpp_deploy_on_windows.md)完成相应的预测库编译和模型预测工作。 - - - -### 3.4 服务化部署 - -Paddle Serving 提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案。更多关于Paddle Serving 的介绍,可以参考[Paddle Serving 代码仓库](https://github.com/PaddlePaddle/Serving)。 - -PaddleClas 提供了基于 Paddle Serving 来完成模型服务化部署的示例,您可以参考[模型服务化部署](../inference_deployment/paddle_serving_deploy.md)来完成相应的部署工作。 - - - -### 3.5 端侧部署 - -Paddle Lite 是一个高性能、轻量级、灵活性强且易于扩展的深度学习推理框架,定位于支持包括移动端、嵌入式以及服务器端在内的多硬件平台。更多关于 Paddle Lite 的介绍,可以参考[Paddle Lite 代码仓库](https://github.com/PaddlePaddle/Paddle-Lite)。 - -PaddleClas 提供了基于 Paddle Lite 来完成模型端侧部署的示例,您可以参考[端侧部署](../inference_deployment/paddle_lite_deploy.md)来完成相应的部署工作。 - - - -### 3.6 Paddle2ONNX 模型转换与预测 - -Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式。通过 ONNX 可以完成将 Paddle 模型到多种推理引擎的部署,包括TensorRT/OpenVINO/MNN/TNN/NCNN,以及其它对 ONNX 开源格式进行支持的推理引擎或硬件。更多关于 Paddle2ONNX 的介绍,可以参考[Paddle2ONNX 代码仓库](https://github.com/PaddlePaddle/Paddle2ONNX)。 - -PaddleClas 提供了基于 Paddle2ONNX 来完成 inference 模型转换 ONNX 模型并作推理预测的示例,您可以参考[Paddle2ONNX 模型转换与预测](@shuilong)来完成相应的部署工作。 - - + -## 4.参考文献 +## 3.参考文献 [1] Cubuk E D, Zoph B, Mane D, et al. Autoaugment: Learning augmentation strategies from data[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2019: 113-123. From cb3f247483de63a6f41eb1134ebca651e23d9661 Mon Sep 17 00:00:00 2001 From: cuicheng01 Date: Thu, 9 Jun 2022 04:38:41 +0000 Subject: [PATCH 3/3] update DataAugmentation.md --- docs/zh_CN/advanced_tutorials/DataAugmentation.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/zh_CN/advanced_tutorials/DataAugmentation.md b/docs/zh_CN/advanced_tutorials/DataAugmentation.md index a51a1f72e6..7097ff637b 100644 --- a/docs/zh_CN/advanced_tutorials/DataAugmentation.md +++ b/docs/zh_CN/advanced_tutorials/DataAugmentation.md @@ -70,7 +70,7 @@ -## 1.1. 数据增强简介 +### 1.1. 数据增强简介 如果没有特殊说明,本章节中所有示例为 ImageNet 分类,并且假设最终输入网络的数据维度为:`[batch-size, 3, 224, 224]` @@ -747,4 +747,4 @@ python3 tools/infer.py \ [test_randomerassing]: ../../images/image_aug/test_randomerassing.jpeg [hide_and_seek_mask_expanation]: ../../images/image_aug/hide-and-seek-visual.png [test_mixup]: ../../images/image_aug/test_mixup.png -[test_cutmix]: ../../images/image_aug/test_cutmix.png \ No newline at end of file +[test_cutmix]: ../../images/image_aug/test_cutmix.png