PyTorch DataLoader的torch.utils.data实例如何详细解析?
- 内容介绍
- 文章标签
- 相关推荐
本文共计1593个文字,预计阅读时间需要7分钟。
1. 数据集:数据类型(dataset) + 输入的数据类型,这里是原始数据的输入。 PyTorch内也有这种数据结构。
2. 批大小:数据类型(int) + 训练数据量的批次大小,根据具体情况进行设置(默认)。
1、dataset:(数据类型 dataset)
输入的数据类型,这里是原始数据的输入。PyTorch内也有这种数据结构。
2、batch_size:(数据类型 int)
批训练数据量的大小,根据具体情况设置即可(默认:1)。PyTorch训练模型时调用数据不是一行一行进行的(这样太没效率),而是一捆一捆来的。这里就是定义每次喂给神经网络多少行数据,如果设置成1,那就是一行一行进行(个人偏好,PyTorch默认设置是1)。每次是随机读取大小为batch_size。如果dataset中的数据个数不是batch_size的整数倍,这最后一次把剩余的数据全部输出。若想把剩下的不足batch size个的数据丢弃,则将drop_last设置为True,会将多出来不足一个batch的数据丢弃。
3、shuffle:(数据类型 bool)
洗牌。默认设置为False。在每次迭代训练时是否将数据洗牌,默认设置是False。
本文共计1593个文字,预计阅读时间需要7分钟。
1. 数据集:数据类型(dataset) + 输入的数据类型,这里是原始数据的输入。 PyTorch内也有这种数据结构。
2. 批大小:数据类型(int) + 训练数据量的批次大小,根据具体情况进行设置(默认)。
1、dataset:(数据类型 dataset)
输入的数据类型,这里是原始数据的输入。PyTorch内也有这种数据结构。
2、batch_size:(数据类型 int)
批训练数据量的大小,根据具体情况设置即可(默认:1)。PyTorch训练模型时调用数据不是一行一行进行的(这样太没效率),而是一捆一捆来的。这里就是定义每次喂给神经网络多少行数据,如果设置成1,那就是一行一行进行(个人偏好,PyTorch默认设置是1)。每次是随机读取大小为batch_size。如果dataset中的数据个数不是batch_size的整数倍,这最后一次把剩余的数据全部输出。若想把剩下的不足batch size个的数据丢弃,则将drop_last设置为True,会将多出来不足一个batch的数据丢弃。
3、shuffle:(数据类型 bool)
洗牌。默认设置为False。在每次迭代训练时是否将数据洗牌,默认设置是False。

