如何用Keras加载预训练模型并冻结哪些层的参数?
- 内容介绍
- 相关推荐
本文共计1067个文字,预计阅读时间需要5分钟。
在处理任务时,我会选择加载预训练的模型并逐步进行微调。例如,在分类任务中,有很多表现优异的深度学习网络,如ResNet、VGG、Xception等。这些模型的参数已在ImageNet数据集上进行了训练。
在解决一个任务时,我会选择加载预训练模型并逐步fine-tune。比如,分类任务中,优异的深度学习网络有很多。
ResNet, VGG, Xception等等... 并且这些模型参数已经在imagenet数据集中训练的很好了,可以直接拿过来用。
根据自己的任务,训练一下最后的分类层即可得到比较好的结果。此时,就需要“冻结”预训练模型的所有层,即这些层的权重永不会更新。
以Xception为例:
加载预训练模型:
from tensorflow.python.keras.applications import Xception model = Sequential() model.add(Xception(include_top=False, pooling='avg', weights='imagenet')) model.add(Dense(NUM_CLASS, activation='softmax'))
include_top = False : 不包含顶层的3个全链接网络
weights : 加载预训练权重
随后,根据自己的分类任务加一层网络即可。
网络具体参数:
model.summary
得到两个网络层,第一层是xception层,第二层为分类层。
本文共计1067个文字,预计阅读时间需要5分钟。
在处理任务时,我会选择加载预训练的模型并逐步进行微调。例如,在分类任务中,有很多表现优异的深度学习网络,如ResNet、VGG、Xception等。这些模型的参数已在ImageNet数据集上进行了训练。
在解决一个任务时,我会选择加载预训练模型并逐步fine-tune。比如,分类任务中,优异的深度学习网络有很多。
ResNet, VGG, Xception等等... 并且这些模型参数已经在imagenet数据集中训练的很好了,可以直接拿过来用。
根据自己的任务,训练一下最后的分类层即可得到比较好的结果。此时,就需要“冻结”预训练模型的所有层,即这些层的权重永不会更新。
以Xception为例:
加载预训练模型:
from tensorflow.python.keras.applications import Xception model = Sequential() model.add(Xception(include_top=False, pooling='avg', weights='imagenet')) model.add(Dense(NUM_CLASS, activation='softmax'))
include_top = False : 不包含顶层的3个全链接网络
weights : 加载预训练权重
随后,根据自己的分类任务加一层网络即可。
网络具体参数:
model.summary
得到两个网络层,第一层是xception层,第二层为分类层。

