请问Row Stationary的卷积方式对哪些数据进行了复用
A: 输入特征图
B: 卷积核
C: 部分和
D: 无
A: 输入特征图
B: 卷积核
C: 部分和
D: 无
A,B
举一反三
- 在Row stationary的方式中卷积核参数沿着什么方向进行复用? A: 水平 B: 垂直 C: 对角线向上 D: 对角线向下
- 假设特征图的大小为7X7,卷积核大小为3X3,使用Row stationary的方式进行二维卷积设计,假设一个处理单元(PE)只处理一行数据(不存在复用多行的情况),那么需要一个多大的PE阵列(例如5X5的特征图,3X3的卷积核需要3X3的PE阵列) A: 3X7 B: 3X5 C: 3X4 D: 3X3
- 假设特征图的大小为7×7,卷积核大小为3×3,使用Row stationary的方式进行二维卷积设计,假设一个处理单元(PE)只处理一行数据(不存在复用多行的情况),那么需要一个多大的PE阵列(例如5×5的特征图,3×3的卷积核需要3×3的PE阵列; A: 3×7 B: 3×5 C: 3×4 D: 3×3
- 在Row stationary的方式中特征图参数沿着什么方向进行复用? A: 水平 B: 垂直 C: 对角线向上 D: 对角线向下
- 有关通道的说法,哪些说法是正确的? A: 卷积层的输入特征图的通道数和输出特征图的通道数是相同的 B: 通道数越多,获得的特征图越多,网络获得的特征越充分 C: 随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能 D: 在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图
内容
- 0
在卷积神经网络LeNet-5的卷积层C3得到的特征图为16个,上一层的特征图为6个。则关于这一卷积过程的描述错误的是[img=658x440]1803b2fa207fe99.png[/img] A: C3卷积层中每个特征图只与上一层S2中部分特征图相连接 B: C3卷积层采用多通道16核卷积 C: C3卷积层有16个卷积核,其大小均为5*5,且每个卷积核与上一层的若干特征图相连接 D: C3卷积层有16个卷积核,其大小均为5*5,且每个卷积核与上一层的全部特征图相连接
- 1
卷积核与特征图之间是__1__ 关系,即一个输入图如果有六个卷积核心,就应该产生 六 个特征图
- 2
卷积神经网络中某一层使用的He权重初始化与以下哪些参数有关? A: 卷积核的高 B: 卷积核的宽 C: 前一层特征图的大小 D: 卷积核的个数
- 3
假设将规格为(H,W,C)=(64,64,16)的特征图先后输入卷积核大小为5×5的卷积层、2×2的MaxPooling层。卷积操作过程中,不进行边界补零操作,则输出特征图的H=()
- 4
有关卷积神经网络的说法错误的是( ) A: 卷积神经网络的卷积操作一般不能跨通道 B: 对输入图像进行卷积操作,其卷积核的通道数可以与输入图像的通道数不一样 C: 基础的卷积神经网络一般包括卷积层、池化层和全连接层 D: 卷积的主要作用是提取特征,池化的主要作用是进行特征的筛选