深度学习 Deep Learning 学习笔记

本文结合KTH的Deep Learning in Data Science与吴恩达的DeepLearning.ai课程,探讨深度学习中的梯度下降优化(包括动量法)和批量归一化技术。动量法能加速学习过程,批量归一化则有助于网络的训练,通过归一化激活和正则化效果改善深层网络的学习效率。
摘要由CSDN通过智能技术生成

本文部分内容来自KTH课程Deep Learning in Data Science.

部分内容为Cousera吴恩达课程deeplearning.ai.

有可能会出现图片打不开的情况,翻墙会解决这个问题

目录

1 From Deep Learning in Data Science course

2 From DeepLearninhg.ai

Course 1: Neural Networks and Deep Learning

Course 2: Improving Deep Neural Networks

第2周:Gradient Descent with momentum

第3周:Batch Normalization

Course4: Convolutional Neural Networks

第1周: Foundations of Convolutional Neural Networks


1 From Deep Learning in Data Science course

1. Forward propagate it through the graph and calculate loss.

2. Backward propagate to calculate the gradients.


2 From DeepLearninhg.ai

Course 1: Neural Networks and Deep Learning

第1、2周:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值