提问:如果卷积神经网络来做自编码器,如何做反卷积呢?
答:卷积神经神经本质上可以(先将池化层删除,聚集核心)转换成全连接层;那么联想到普通自编码器,如果要求编码器与解码器参数相对称,那么编码层对应的参数w,解码层对应的参数为w的转置;那么反卷积也一样的道理;需要是w的转置;
提问:如果卷积神经网络来做自编码器,如何做反卷积呢?
答:卷积神经神经本质上可以(先将池化层删除,聚集核心)转换成全连接层;那么联想到普通自编码器,如果要求编码器与解码器参数相对称,那么编码层对应的参数w,解码层对应的参数为w的转置;那么反卷积也一样的道理;需要是w的转置;