深度学习
wowMJX
这个作者很懒,什么都没留下…
展开
-
深度学习---卷积神经网络解决分类与回归问题
一、CNN神经网络的发展史:Lenet,1986年Alexnet,2012年 2012年,Imagenet比赛冠军的model——Alexnet [2](以第一作者alex命名),AlexNet 是一种典型的 convolutional neural network,它由5层 convolutional layer,2层 fully connected layer,和最后一层 label layer (1000个node, 每个node代表ImageNet中的一个类别) 组成GoogleNet原创 2020-07-19 20:52:37 · 14204 阅读 · 1 评论 -
深度学习---RNN循环神经网络&LSTM解决长依赖问题
神经网络只能单独的处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,在我们处理某些任务时,要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。输入和输出都是等长的序列。这里使用RNN循环神经网络来处理这类问题。一、RNN循环神经网络循环神经网络会记忆之前的信息,并利用之前的信息影响后面节点的输出。隐藏层之间的结点是有连接的,输入不仅包括输入层的输出还包括上时刻隐藏层的输出。循环神经网络首先把所有的输入值进行词组的分解隐藏层的作用是对序列数据提取特征h2 的计算和 h1原创 2020-07-19 19:39:42 · 6897 阅读 · 0 评论 -
深度学习---卷积神经网络CNN概念及计算过程
一、卷积神经网络的介绍1、简介:卷积神经网络(Convolutional Neural Networks)是一种深度学习模型或类似于人工神经网络的多层感知器,常用来分析视觉图像。卷积神经网络的创始人是著名的计算机科学家Yann LeCun,目前在Facebook工作,他是第一个通过卷积神经网络在MNIST数据集上解决手写数字问题的人。2、解决的问题:分类问题、推荐系统、检测系统、自动驾驶汽车、分割数据监测、人脸识别二、CPU与GPU1、CPU中央处理器:解释计算机指令以及处理计算机软件中的数据,读原创 2020-07-12 11:16:25 · 961 阅读 · 0 评论 -
深度学习---前向传播和反向传播的推导过程
import numpy as np#激活函数def sigmoid(x): return 1/(1+np.exp(-x))#sigmoid的导数def sigmoid_backward(x): return x*(1-x) #创建数据集5x3X=np.array([[0,1,1], [1,1,0], [0,0,1], [1,0,1], [1,1,0] ])原创 2020-07-12 10:56:08 · 258 阅读 · 0 评论 -
深度学习---神经网络的介绍
一、神经网络1、线性方程:f=wx2、非线性方程:f=w2max(0,w1x) --------拟合更复杂的数据3、神经网络的本质:神经网络函数多了一个MAX()计算,这种非线性的函数使得神经网络相比于传统的线性分类更强大,因为非线性可以使得咱们的函数去拟合更复杂的数据二、神经网络结构输入层—>隐层:对输入数据进行非线性转换+激活函数:多个激活函数—>输出层①单层神经网络:f=w2max(0,w1x)②双层神经网络:f=w3max(0,w2max(0,w1x))对于深层原创 2020-07-01 23:36:16 · 290 阅读 · 0 评论 -
深度学习-前向传播+反向传播
一、深度学与传统机器学的区别1:在数据量较少的情况下,机器学和深度学训练后的数据是差不多的;但是在数据量较多的情况下,使用深度学训练数据较好。2:机器学选择算法时需要调参,深度学不需要调参,深度学会发生过拟合的情况。3:传统机器学的计算资源耗费较高。二、深度学的应用1:自然语言应用2:计算机视觉三、分类任务的步骤1:收集数据并给定标签(需要收集很多数据,基本以万为单位)。2:训练一个分类器(选择相应的算法)。3:测试评估(计算准确率、精确率、召回率、ROC曲线)。四、传统机器学的计算步原创 2020-07-01 23:19:29 · 1202 阅读 · 0 评论