【莫烦Python】Tensorflow 搭建自己的神经网络
tensorflow2.0入门与实战 2019年最通俗易懂的课程
【北京大学】Tensorflow2.0
更多资料请关注公众号:计算机视觉与图形学实战
【莫烦Python】Tensorflow 搭建自己的神经网络
目录(播放量120.5万次) |
---|
P1 科普: 人工神经网络 VS 生物神经网络 04:40 |
P3 神经网络 : 梯度下降 (Gradient Descent in Neural Nets) 04:08 |
P5 1 why? 01:14 |
P7 3 例子1 02:28 |
P9 5 例子2 12:56 |
P11 7 Variable 变量 06:10 |
P13 什么是激励函数 (深度学习)? 03:49 |
P15 10 例子3 添加层 def add_layer() 07:01 |
P17 12 例子3 结果可视化Plot result 09:51 |
P19 13 优化器 optimizer 06:23 |
P21 15 Tensorboard 可视化好帮手2 10:33 |
P23 什么是过拟合 (深度学习)? 04:23 |
P25 什么是卷积神经网络 CNN (深度学习)? 05:39 |
P27 18.2 CNN 卷积神经网络 11:32 |
P29 19 Saver 保存读取 13:11 |
P31 什么是 LSTM RNN 循环神经网络 (深度学习)? 03:55 |
P33 20.2 RNN lstm 循环神经网络 (分类例子) 23:18 |
P35 20.4 RNN lstm (回归例子可视化) 05:59 |
P37 21 自编码 Autoencoder (非监督学习) 11:21 |
P39 什么是 Batch Normalization 批标准化 (深度学习 deep learning) 05:09 |
P41 24 2017年新版更新 06:48 |
P43 什么是迁移学习 transfer learning 04:48 |
tensorflow2.0入门与实战 2019年最通俗易懂的课程
目录 播放量(46.8万) |
---|
P1 1.课程简介 10:45 |
P2 2.1 最新 Tensorflow 2.3 CPU 版本极简安装 14:34 |
P3 2.2 最新 Tensorflow 2.3 GPU 版本极简安装 14:14 |
P4 3.机器学习原理-线性回归 13:41 |
P5 4.tf.keras实现线性回归 12:31 |
P6 5.梯度下降算法 10:13 |
P7 6.多层感知器(神经网络)与激活函数 09:31 |
P8 7.多层感知器(神经网络)的代码实现 13:05 |
P9 8.逻辑回归与交叉熵 05:26 |
P10 9.逻辑回归实现 11:58 |
P11 10.softmax多分类 10:15 |
P12 11.softmax多分类代码实现- fashion mnist数据分类实例 12:36 |
P13 12.独热编码与交叉熵损失函数 10:42 |
P14 13.优化函数、学习速率、反向传播算法 11:40 |
P15 14.网络优化与超参数选择 08:15 |
P16 15.Dropout抑制过拟合与网络参数选择总原则 12:49 |
P17 16.Dropout与过拟合抑制 07:05 |
P18 17. 函数式API与多输入输出模型(一) 07:57 |
P19 18. 函数式API与多输入输出模型(二) 06:34 |
P20 19. 课程整体框架介绍 14:07 |
目录(播放量 29.5万) |
---|
P1 0开篇语-全 08:37 |
P3 1.2神经网络设计过程 14:15 |
P5 1.4TF2常用函数1 08:01 |
P7 1.6鸢尾花数据集读入 04:03 |
P9 2.1-预备知识 05:26 |
P11 2.3-激活函数 05:23 |
P13 2.5-缓解过拟合 10:56 |
P15 3.1搭建网络八股sequential 13:07 |
P17 3.3MNIST数据集 07:06 |
P19 4.1搭建网络八股总览 03:25 |
P21 4.3数据增强 03:13 |
P23 4.5参数提取 02:11 |
P25 4.7给图识物 06:05 |
P27 5.2感受野 04:12 |
P29 5.4TF描述卷积计算层 01:50 |
P31 5.6池化 02:28 |
P33 5.8卷积神经网络 01:19 |
P35 5.10卷积神经网络搭建示例 07:32 |
P37 5.12AlexNet 05:28 |
P39 5.14InceptionNet 09:55 |
P41 5.16经典卷积网络小结 01:14 |
P43 6.2循环核时间步展开 01:28 |
P45 6.4TF描述循环计算层 02:59 |
P47 6.6字母预测onehot_1pre1 04:58 |
P49 6.8字母预测onehot_4pre1 05:18 |
P51 6.10字母预测Embedding_1pre1 04:00 |
P53 6.12RNN实现股票预测 05:58 |
P55 6.14GRU实现股票预测(GRU计算过程_TF描述GRU层) 03:00 |