CNN
CNN介绍和实战记录
西檬饭
这个作者很懒,什么都没留下…
展开
-
重读经典卷积神经网络-ResNet
ResNet 论文1.目的为了解决随着网络层次加深带来的训练困难问题而提出了一个新的残差神经网络。随着网络层次的加深,训练的时候出现梯度消失/爆炸,这导致了网络难以收敛。通过标准化后的初始化和中间初始化层(normalized initialization and intermediate normalization layers)可以使网路开始收敛,但是网络开始收敛之后,又出现其他问题:“with the network depth increasing, accuracy gets satura原创 2020-08-12 10:54:32 · 258 阅读 · 0 评论 -
论文阅读:Cardiologist-Level Arrhythmia Detection with Convolutional Neural Networks
简介建立了一个病人数量是现有数据集500倍以上数据集;一个34层的卷积神经网络;在敏感度和准确度方面都超过了心脏病专家的平均表现。数据的不平衡问题是这么解决的:“We intentionally select patients exhibiting ab- normal rhythms in order to make the class balance of the dataset more even and thus the likelihood of observing un- usual原创 2020-07-27 18:20:23 · 927 阅读 · 0 评论 -
论文阅读:A novel multi-kernel 1D convolutional neural network for stress recognition from ECG
背景压力状态和ECG相关,作者想通过神经网络去提取ECG中的有效特征并对提取的特征分类,得到压力状态。压力的判别已经有很多方法,但是还是缺少一种比较客观、可靠的方法去估计压力,尤其是那些刻意隐藏压力表现的。由于生理信号无法被隐藏,可作为可靠的表征。1D CNN也有用在一下ECG的分类中,是不是也可以用在这里?实验过程和细节数据采集来自24个人(7女,14男);压力分为两类:中性期和压力期,不同的压力期分为4个实验阶段(社会暴露、压力事件回忆、认知负荷、观看压力视频)。详细描述如下表:通过两原创 2020-07-22 10:21:32 · 343 阅读 · 0 评论 -
一维卷积处理时间序列
一维卷积在以下几个方面能取得很好的效果:Analysis of a time series of sensor data.Analysis of signal data over a fixed-length period, for example, an audio recording.一维卷积核二维卷积的区别从上图可以理解卷积核处理的顺序或者前进方向不相同。一维卷积提取固定长度信号的特征,一个卷积核通常覆盖一段完整的信号。上面左图中是使用1D CNN处理文本。这里的文本已经通过embedin原创 2020-07-11 10:35:22 · 6200 阅读 · 0 评论 -
重读经典神经网络-VGGNet
VGGNet网络结构VGGNet最大的特点就是反复使用3x3的卷积核和2x2的最大池化层不断探索更加深层的网络结构。可以将VGGNet分段,有5段卷积,每段包含几个卷积层,段末使用池化层缩小尺寸;每段卷积核大小一致,但是随着段增加,卷积核数量增加。使用反复使用3x3的卷积核和2x2的最大池化不断加深网络结构,得到了不同级别的网络:关于卷积核和视野域2个3x3卷积核等价于一层5x5卷积核3个3x3卷积核等价于一层7x7卷积核使用1x1卷积核是有效的,等价于非线性变换经验:经过poolin原创 2020-07-09 11:11:11 · 270 阅读 · 0 评论 -
重读经典神经网络-AlexNet
AlexNet中的新技术:使用了ReLU,效果比Sigmoid好;使用Dropout减轻过拟合;使用重叠最大池化;提出LRN层;使用了GPU进行加速;数据增强;AlexNet网络结构AlexNet每层中的超参数数量:输入图片尺寸:224x224层输入尺寸卷积核大小卷积核个数步长输出尺寸超参数数量Conv224x224x311x11964(224-11)/4+1 = 54.25 ~ 55, 55x55x963*(11*11+1)*96=3513原创 2020-06-26 10:24:18 · 254 阅读 · 0 评论 -
重读经典神经网络-LeNet5
LeNet5网络结构:第一层:6个5x5卷积核输入图像尺寸:32x32灰度值图像可训练的参数:(5*5+1)*6=156,1为每个卷积核的偏置步长为1,输出feature map尺寸:(32−5)/1+1=28(32-5)/1+1 = 28(32−5)/1+1=28输出个数:28*28*6连接数:156*28*28 = 122304第二层:2x2平均池化输入尺寸:28x28采样大小:2x2采样方式:4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,最后通过sigmoid输出尺寸原创 2020-06-25 21:06:19 · 280 阅读 · 0 评论 -
卷积神经网络基础
CNN最初提出是为了避免图像识别时复杂的特征工程,降低图像预处理的难度。因为CNN可以直接处理原始像素,CNN训练的网络对缩放、平移、旋转等畸形变换具有不变形,泛化能力好。另外,卷积权值共享可以减少网络的参数量,降低模型的复杂度,同时还能在一定程度防止过拟合。CNN如何提取特征?第一个卷积层直接处理输入的像素点,每个卷积或者滤波器只处理一小块图像,提取其中最有效的特征。感受野图像在空间上是有组织结构的,每一个像素在空间上与周围的像素有紧密联系,但是当两个像素距离很远时,两个像素大概率是无关联的。所原创 2020-06-25 21:04:11 · 502 阅读 · 0 评论 -
如何使用CNN进行语音信号分析
CNN对图片分类能够取得很高的准确率,而语音信号经过傅里叶变换或者其他变换能够得到时间-频率图。大家的想法都很直接,能不能用于语音信号的分析?于是就有了下面的探索。。估计看完的小伙伴应该能够实现一个CNN对音频分类,同时也知道CNN在处理时间-频率图与普通图的不同之处。1.Quora 上的问题Can we apply CNN to frequency domain?https://www...原创 2019-07-18 20:16:48 · 7612 阅读 · 1 评论 -
Keras实现一维卷积(Conv1D)实例
实战一维卷积(Conv1D):kaggle叶子分类问题通过例子理解:(1)一维卷积是如何工作的;(2)输入数据是如何构建的;这里有一篇比较详细解释代码的博客:用Keras实现简单一维卷积 ,亲测可用一维卷积实例,及Kaggle竞赛代码解读需要的数据可以在kaggle上下载,上面的那篇文章也有下载链接。直接看代码:import numpy as npimport pandas a...转载 2018-12-19 19:35:50 · 44189 阅读 · 18 评论 -
使用Tensorflow实现CNN使用的函数小结
给图片添加维度np.expand_dims()Image = np.expand_dims(np.expand_dims(img, 0), -1)expand_dims(a, axis)Expand the shape of an array.无论a是多少维的数组,主要是看axis的取值。例子参考下面的博客。https://blog.csdn.net/qq_16949707/art...原创 2018-11-13 20:52:23 · 504 阅读 · 0 评论 -
Tensorflow实现CNN用于MNIST识别
1. 设定结构这篇文章实现下面的一个简单的结构: - (Input) -> [batch_size, 28, 28, 1] >> Apply 32 filter of [5x5] - (Convolutional layer 1) -> [batch_size, 28, 28, 32原创 2018-11-13 20:46:00 · 6439 阅读 · 2 评论 -
tensorflow实现简单的softmat分类器
softmax分类器这篇文章介绍如何使用一个简单的多层感知机和softmax分类器对MNIST数据集进行分类。1. 使用内建的函数加载MNIST数据from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets('MNIST_data', one_hot=Tru...翻译 2018-09-10 21:04:45 · 425 阅读 · 0 评论