什么是神经网络中的卷积神经网络(CNN)的基本概念?

2026-05-05 23:491阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐

本文共计1774个文字,预计阅读时间需要8分钟。

什么是神经网络中的卷积神经网络(CNN)的基本概念?

隐藏层+并非输入或输出层的所有层都称为隐藏层。活化和池化都没有权重+使层与操作区分开的原因为层具有权重。由于激活操作和池化功能没有权重,因此我们将其称为操作。

隐藏层

不是输入或输出层的所有层都称为隐藏层.

激活和池化都没有权重

使层与操作区分开的原因在于层具有权重。由于池操作和激活功能没有权重,因此我们将它们称为操作,并将其视为已添加到层操作集合中。
例如,我们说网络中的第二层是一个卷积层,其中包含权重的集合,并执行三个操作,即卷积操作,relu激活操作和最大池化操作。

传入Linear层之前展平张量

在将输入传递到第一个隐藏的Linear层之前,我们必须reshape()或展平我们的张量。每当我们将卷积层的输出作为Linear层的输入传递时,都是这种情况。

正向传播

正向传播是将输入张量转换为输出张量的过程。神经网络的核心是将输入张量映射到输出张量的功能,而正向传播只是将传递输入到网络并从网络接收输出的过程的特殊名称。

in_channels

对于最初输入图片样本的通道数in_channels取决于图片的类型,如果是彩色的,即RGB类型,这时候通道数固定为3,如果是灰色的,通道数为1。

out_channels

卷积完成之后,输出的通道数out_channels取决于过滤器的数量。从这个方向理解,这里的out_channels设置的就是过滤器的数目。
对于第二层或者更多层的卷积,此时的 in_channels 就是上一层的 out_channels , out_channels 还是取决于过滤器数目。

阅读全文

本文共计1774个文字,预计阅读时间需要8分钟。

什么是神经网络中的卷积神经网络(CNN)的基本概念?

隐藏层+并非输入或输出层的所有层都称为隐藏层。活化和池化都没有权重+使层与操作区分开的原因为层具有权重。由于激活操作和池化功能没有权重,因此我们将其称为操作。

隐藏层

不是输入或输出层的所有层都称为隐藏层.

激活和池化都没有权重

使层与操作区分开的原因在于层具有权重。由于池操作和激活功能没有权重,因此我们将它们称为操作,并将其视为已添加到层操作集合中。
例如,我们说网络中的第二层是一个卷积层,其中包含权重的集合,并执行三个操作,即卷积操作,relu激活操作和最大池化操作。

传入Linear层之前展平张量

在将输入传递到第一个隐藏的Linear层之前,我们必须reshape()或展平我们的张量。每当我们将卷积层的输出作为Linear层的输入传递时,都是这种情况。

正向传播

正向传播是将输入张量转换为输出张量的过程。神经网络的核心是将输入张量映射到输出张量的功能,而正向传播只是将传递输入到网络并从网络接收输出的过程的特殊名称。

in_channels

对于最初输入图片样本的通道数in_channels取决于图片的类型,如果是彩色的,即RGB类型,这时候通道数固定为3,如果是灰色的,通道数为1。

out_channels

卷积完成之后,输出的通道数out_channels取决于过滤器的数量。从这个方向理解,这里的out_channels设置的就是过滤器的数目。
对于第二层或者更多层的卷积,此时的 in_channels 就是上一层的 out_channels , out_channels 还是取决于过滤器数目。

阅读全文