12月第一周

读论文
SparseDGCNN: Recognizing Emotion from Multichannel EEG Signals
 Abstract —  a novel dynamic graph convolutional neural network
题目:Recognizing Emotion based on Sparse multi-layers LSTM from Multichannel EEG Signals

学习深度学习

卷积神经网络

卷积神经网络(Convolutional Neural Network, 简称 CNN)是一种前馈神经网络,常用于图像识别、自然语言处理和语音识别等领域。它的结构由多层卷积层,池化层、全连接层等组成。与传统的神经网络不同,卷积神经网络利用卷积运算提取图像或其他类型数据中的特征,而不是像素点的原始值,从而能够更准确地识别物体或完成其他任务。卷积神经网络被广泛应用于计算机视觉领域,例如物体识别、图像分类、图像分割、人脸识别等。



图解,卷积神经网络(CNN可视化)_哔哩哔哩_bilibili

import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Dropout, Activation, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.utils import np_utils
from keras.datasets import mnist

# 加载MNIST数据集
(x_train, y_train), (x_test, y_test) = mnist.load_data()

# 数据预处理
num_classes = 10
x_train = x_train.reshape(x_train.shape[0], 28, 28, 1)
x_test = x_test.reshape(x_test.shape[0], 28, 28, 1)
x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
y_train = np_utils.to_categorical(y_train, num_classes)
y_test = np_utils.to_categorical(y_test, num_classes)

# 定义模型
model = Sequential()
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes, activation='softmax'))

# 编译模型
model.compile(loss='categorical_crossentropy',
              optimizer='adam',
              metrics=['accuracy'])

# 训练模型
model.fit(x_train, y_train,
          batch_size=128,
          epochs=10,
          verbose=1,
          validation_data=(x_test, y_test))

# 评估模型
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])
 

LSTM神经网络

LSTM(Long Short-Term Memory)是一种特殊的循环神经网络(RNN),它可以解决RNN存在的梯度消失和梯度爆炸的问题。LSTM中的“门”(Gates)是控制信息流的关键,它们可以帮助网络忘记不重要的信息,同时记住重要的信息。LSTM的核心单元包含三个门:输入门(Input Gate)、遗忘门(Forget Gate)和输出门(Output Gate),以及一个记忆单元(Memory Cell),这些门可以控制输入、遗忘和输出的信息。

LSTM的记忆单元可以记录输入的历史信息并更新状态,它可以接收前一时刻的记忆状态和当前时刻输入的信息,经过门控来决定哪些信息是需要保留的。因此,LSTM在处理长序列时具有比传统RNN更好的性能,可以被广泛用于自然语言处理、时间序列预测等任务中。







【重温经典】大白话讲解LSTM长短期记忆网络 如何缓解梯度消失,手把手公式推导反向传播_哔哩哔哩_bilibili

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值