卷积神经网络
全连接层在卷积层和池化层的后面,因为卷积层的输入和输出是一个多维的矩阵,而全连接层的输入和输出是一个多维的向量,所以在卷积层和全连接层的连接点上,需要做一个操作,就是把卷积的输出给展平,展平涉及维度信息,全连接层无法将维度信息给呈现出来,全连接层无法直接与卷积层做连接。
什么是反卷积层?可以使数据维度变大,可以使得输入和输出一样大,当输入和输出一样大的时候,就可以去做物体分割(输入和输出尺寸一样)
局部连接
图像的区域性,一定区域的图像,像素点之间的信息有相似性
输出size = 输入size - 卷积核厚度(即卷积核size - 1)
步长为2,图片大小越来越小
多通道图像卷积处理,卷积核也是多通道的,每个通道对应上去,做乘法求和,输出依然是单通道输出。
如果提取多组特征,即多个卷积核处理,输出就是多个卷积核处理后的特征
池化
选择区域里面的最大值
不重叠指的是步长一样,计算过程中没有重叠的区域,不补零,指滑到最后,不够的区域直接丢掉。
平移后的卷积层会不一样,如果先做池化操作,这样平移后卷积会一样,具有平移鲁棒性。但是会损失一些精度信息。有些细节的东西会没有。
代码实现
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
x_train_scaled = scaler.<