What is the application of ResNet_wide model in CIFAR10 dataset?
- 内容介绍
- 文章标签
- 相关推荐
本文共计2064个文字,预计阅读时间需要9分钟。
相关专题内容,请直接输入关键词或问题,我将提供简洁的答案。
论文:
- [1] Zagoruyko S , Komodakis N . Wide Residual Networks[J]. 2016.
- 链接:Wide Residual Networks
参考项目:
- https://github.com/xternalz/WideResNet-pytorch
- https://github.com/meliketoy/wide-resnet.pytorch/blob/master/networks/wide_resnet.py
二、复现精度
train from scratch细节:
| epoch | opt | batch_size | dataset | memory | card | precision | |
|---|---|---|---|---|---|---|---|
| 1 | 400 | SGD | 128 | CIFAR10 | 16G | 1 | 0.9660 |
模型下载 模型地址:aistudio
三、数据集
CIFAR10数据集。
- 数据集大小:
- 训练集:50000张
- 测试集:10000张
- 尺寸:32 * 32
- 数据格式:分类数据集
四、环境依赖
硬件:GPU、CPU
-
框架:
- PaddlePaddle >= 2.0.0
五、快速开始
step1: clone
# clone this repogit clone https://github.com/PaddlePaddle/Contrib.gitcd wide_resnetexport PYTHONPATH=./
安装依赖
python3 -m pip install -r requirements.txt
step2: 训练
python3 train.py
如果你想分布式训练并使用多卡:
python3 -m paddle.distributed.launch --log_dir=./debug/ --gpus '0,1,2,3' train.py
此时的输出为:
Epoch 0: PiecewiseDecay set learning rate to 0.05.iter:0 loss:2.4832iter:10 loss:2.3544iter:20 loss:2.3087iter:30 loss:2.2509iter:40 loss:2.2450
step3: 测试
python3 eval.py
此时的输出为:
acc:9660 total:10000 ratio:0.966
六、代码结构与详细说明
6.1 代码结构
│ wide_resnet.py # 模型文件│ eval.py # 评估│ README.md # 英文readme│ README_cn.md # 中文readme│ requirement.txt # 依赖│ train.py # 训练
6.2 参数说明
无
6.3 训练流程
单机训练
python3 train.py
多机训练
python3 -m paddle.distributed.launch --log_dir=./debug/ --gpus '0,1,2,3' train.py
此时,程序会将每个进程的输出log导入到./debug路径下:
. ├── debug │ ├── workerlog.0│ ├── workerlog.1│ ├── workerlog.2│ └── workerlog.3├── README.md └── train.py
训练输出
执行训练开始后,将得到类似如下的输出。每一轮batch训练将会打印当前epoch、step以及loss值。
Epoch 0: PiecewiseDecay set learning rate to 0.05. iter:0 loss:2.4832 iter:10 loss:2.3544 iter:20 loss:2.3087 iter:30 loss:2.2509 iter:40 loss:2.2450
6.4 评估流程
python3 eval.py
此时的输出为:
acc:9660 total:10000 ratio:0.966
七、模型信息
关于模型的其他信息,可以参考下表:
| 信息 | 说明 |
|---|---|
| 发布者 | 徐铭远 |
| 时间 | 2021.08 |
| 框架版本 | >=Paddle 2.0.2 |
| 应用场景 | 图像分类 |
| 支持硬件 | GPU、CPU |
| 下载链接 | 预训练模型 |
本文共计2064个文字,预计阅读时间需要9分钟。
相关专题内容,请直接输入关键词或问题,我将提供简洁的答案。
论文:
- [1] Zagoruyko S , Komodakis N . Wide Residual Networks[J]. 2016.
- 链接:Wide Residual Networks
参考项目:
- https://github.com/xternalz/WideResNet-pytorch
- https://github.com/meliketoy/wide-resnet.pytorch/blob/master/networks/wide_resnet.py
二、复现精度
train from scratch细节:
| epoch | opt | batch_size | dataset | memory | card | precision | |
|---|---|---|---|---|---|---|---|
| 1 | 400 | SGD | 128 | CIFAR10 | 16G | 1 | 0.9660 |
模型下载 模型地址:aistudio
三、数据集
CIFAR10数据集。
- 数据集大小:
- 训练集:50000张
- 测试集:10000张
- 尺寸:32 * 32
- 数据格式:分类数据集
四、环境依赖
硬件:GPU、CPU
-
框架:
- PaddlePaddle >= 2.0.0
五、快速开始
step1: clone
# clone this repogit clone https://github.com/PaddlePaddle/Contrib.gitcd wide_resnetexport PYTHONPATH=./
安装依赖
python3 -m pip install -r requirements.txt
step2: 训练
python3 train.py
如果你想分布式训练并使用多卡:
python3 -m paddle.distributed.launch --log_dir=./debug/ --gpus '0,1,2,3' train.py
此时的输出为:
Epoch 0: PiecewiseDecay set learning rate to 0.05.iter:0 loss:2.4832iter:10 loss:2.3544iter:20 loss:2.3087iter:30 loss:2.2509iter:40 loss:2.2450
step3: 测试
python3 eval.py
此时的输出为:
acc:9660 total:10000 ratio:0.966
六、代码结构与详细说明
6.1 代码结构
│ wide_resnet.py # 模型文件│ eval.py # 评估│ README.md # 英文readme│ README_cn.md # 中文readme│ requirement.txt # 依赖│ train.py # 训练
6.2 参数说明
无
6.3 训练流程
单机训练
python3 train.py
多机训练
python3 -m paddle.distributed.launch --log_dir=./debug/ --gpus '0,1,2,3' train.py
此时,程序会将每个进程的输出log导入到./debug路径下:
. ├── debug │ ├── workerlog.0│ ├── workerlog.1│ ├── workerlog.2│ └── workerlog.3├── README.md └── train.py
训练输出
执行训练开始后,将得到类似如下的输出。每一轮batch训练将会打印当前epoch、step以及loss值。
Epoch 0: PiecewiseDecay set learning rate to 0.05. iter:0 loss:2.4832 iter:10 loss:2.3544 iter:20 loss:2.3087 iter:30 loss:2.2509 iter:40 loss:2.2450
6.4 评估流程
python3 eval.py
此时的输出为:
acc:9660 total:10000 ratio:0.966
七、模型信息
关于模型的其他信息,可以参考下表:
| 信息 | 说明 |
|---|---|
| 发布者 | 徐铭远 |
| 时间 | 2021.08 |
| 框架版本 | >=Paddle 2.0.2 |
| 应用场景 | 图像分类 |
| 支持硬件 | GPU、CPU |
| 下载链接 | 预训练模型 |

