1 —— Brief introduction of Deep Learning
今天看完了Brief introduction of Deep Learning这一节。
B站1.5倍速刚刚好,能让脑子快速反应,也节省了时间。
1 Ups and Downs of Deep Learning
个人觉得本部分内容不够详细,没太经过脑子。自己动手上网搜索简要整理了一下。
· 1943 MCP模型 “模拟大脑”——仿照神经元的结构和工作原理
· 1958 Perceptron 两层神经元组成的神经网络
· 1969 Perceptron has limitation 只能处理线性分类,凉
· 1980 Multi-layer perceptron 与Deep Learning 无显著差异
· 1986 Backpropagation 解决了非线性,但超过三层神经元效果不好
· 1989 一层神经网络足以拟合 SVM
· 2006 RBM(restricted Boltzmann machine) initalization 复杂,帮助不大
· 2009 GPU应用计算,速度大大加快
· 2011 DNN(Deep Neural Networks)应用到语音识别
· 2012 AlexNet算法
2 DNN架构
ML架构
DL参照以上步骤
1 Neural Network
2 计算Loss 评判网络
利用Gradient Descent
3 挑选出最好的网络
3 基本概念与处理方法
1 Neural Network
input layer hidden layer output layer
2 运用矩阵来在网络中计算,扔给GPU处理
3 You need to decide the network structure to let a good function in your function set
挑数据还是编写一个网络???
ex: features ->decide the structure
手写数字特征不一样,千变万化,挑数据去训练不好,不如编写一个网络让它自己去识别
4 backpropagation(反向传播)
可以用tensorflow去算微分
Q:why DL?
是越多越好吗?老师之前提到过网络不是越多拟合效果越好,要看实际情况,我猜想,在N层和N+1层两个结果会相差较大,所以用N层就好啦,再继续加意义不大,明天揭晓答案吧~
今天白天好累,晚上撑着学完了,毕竟flag立在这了,有种感觉,学习这个课程的时间是我自己挣来的,要好好珍惜~
写完发现这样重复课程内容效率并不高,明天尝试盲·思维导图,再加点评,不能做知识的搬运工,要思考!
每日沙雕表情包不能断!