学习+科研+做项目 深度学习最全详细资料

李宏毅2020机器学习深度学习(完整版)国语
[双语字幕]吴恩达深度学习deeplearning.ai
深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)

在这里插入图片描述
更多资料请关注公众号:计算机视觉与图形学实战

李宏毅2020机器学习深度学习(完整版)国语

目录157.5万播放
P1 机器学习 37:08P2 Rule of ML 2020 22:04
P3 Regression - Case Study 1:18:35P4 Basic Concept 43:14
P5 Gradient Descent_1 1:01:52P6 Gradient Descent_2 02:36
P7 Gradient Descent_3 01:41P8 Optimization for Deep Learning (1_2) (选学) 54:36
P9 Optimization for Deep Learning (2_2) (选学) 54:32P10 Classification_1 1:09:41
P11 Logistic Regression 1:07:13P12 Brief Introduction of Deep Learning 46:30
P13 Backpropagation 31:26P14 Tips for Training DNN 1:26:02
P15 Why Deep- 57:45P16 PyTorch Tutorial 52:39
P17 Convolutional Neural Network 1:19:29P18 Graph Neural Network (1_2) (选学) 39:02
P19 Graph Neural Network (2_2) (选学) 1:11:37P20 Recurrent Neural Network (Part I) 49:00
P21 Recurrent Neural Network (Part II) 1:30:50P22 Semi-supervised 59:59
P23 Unsupervised Learning - Word Embedding 40:39P24 Explainable ML (1_8) 13:51
P25 Explainable ML (2_8) 14:08P26 Explainable ML (3_8) 06:08
P27 Explainable ML (4_8) 07:16P28 Explainable ML (5_8) 08:13
P29 Explainable ML (6_8) 07:27P30 Explainable ML (7_8) 08:03
P31 Explainable ML (8_8) 07:17P32 More about Explainable AI (选学) 1:44:29
P33 Attack ML Models (1_8) 06:06P34 Attack ML Models (2_8) 11:43
P35 Attack ML Models (3_8) 07:03P36 Attack ML Models (4_8) 08:12
P37 Attack ML Models (5_8) 06:39P38 Attack ML Models (6_8) 09:27
P39 Attack ML Models (7_8) 08:04P40 Attack ML Models (8_8) 10:11
P41 More about Adversarial Attack (1_2) (选学) 29:58P42 More about Adversarial Attack (2_2) (选学) 29:45
P43 Network Compression (1_6) 08:24P44 Network Compression (2_6) 12:44
P45 Network Compression (3_6) 08:33P46 Network Compression (4_6) 06:37
P47 Network Compression (5_6) 11:53P48 Network Compression (6_6) 13:09
P49 Network Compression (1_2) - Knowledge Distillation (选学) 1:07:53P50 Network Compression (2_2) – Network Pruning (选学) 39:33
P51 Conditional Generation by RNN & Attention 1:41:14P52 Pointer Network 13:34
P53 Recursive 24:58P54 Transformer 49:32
P55 Transformer and its variant (选学) 1:49:23P56 Unsupervised Learning - Linear Methods 1:40:20
P57 Unsupervised Learning - Neighbor Embedding 30:58P58 Unsupervised Learning - Auto-encoder 42:04
P59 More about Auto-encoder (1_4) 13:39P60 More about Auto-encoder (2_4) 06:12
P61 More about Auto-encoder (3_4) 12:29P62 More about Auto-encoder (4_4) 14:52
P63 ELMO, BERT, GPT 1:04:52P64 Self-supervised Learning (选学) 40:37
P65 Anomaly Detection (1_7) 13:23P66 Anomaly Detection (2_7) 14:10
P67 Anomaly Detection (3_7) 14:05P68 Anomaly Detection (4_7) 04:08
P69 Anomaly Detection (6_7) 12:20P70 Anomaly Detection (7_7) 06:02
P71 More about Anomaly Detection (选学) 46:52P72 Generative Adversarial Network(1_10) 1:33:15
P73 Generative Adversarial Network(2_10) 26:19P74 Generative Adversarial Network(3_10) 38:59
P75 Generative Adversarial Network(4_10) 1:20:19P76 Generative Adversarial Network(5_10) 25:04
P77 Generative Adversarial Network(6_10) 50:07P78 Generative Adversarial Network(7_10) 46:03
P79 Generative Adversarial Network(8_10) 22:46P80 Generative Adversarial Network(9_10) 1:27:23
P81 Generative Adversarial Network(10_10) 30:09P82 SAGAN, BigGAN, SinGAN, GauGAN, GANILLA, NICE-GAN(选学) 1:06:17
P83 Transfer Learning 1:14:28P84 More about Domain Adaptation (1_2) (选学) 52:01
P85 More about Domain Adaptation (2_2) (选学) 34:11P86 Meta Learning – MAML (1_9) 07:42
P87 Meta Learning – MAML (2_9) 07:53P88 Meta Learning – MAML (3_9) 10:21
P89 Meta Learning – MAML (4_9) 05:15P90 Meta Learning – MAML (5_9) 13:22
P91 Meta Learning – MAML (6_9) 06:33P92 Meta Learning – MAML (7_9) 08:54
P93 Meta Learning – MAML (8_9) 05:12P94 Meta Learning – MAML (9_9) 06:53
P95 Meta Learning - Gradient Descent as LSTM (1_3) 11:40P96 Meta Learning - Gradient Descent as LSTM (2_3) 10:06
P97 Meta Learning - Gradient Descent as LSTM (3_3) 10:39P98 More about Meta Learning (选学) 44:10
P99 More about Meta Learning (选学) 53:11P100 Life Long Learning (1_7) 13:51
P101 Life Long Learning (2_7) 07:25P102 Life Long Learning (3_7) 12:04
P103 Life Long Learning (4_7) 04:40P104 Life Long Learning (5_7) 03:20
P105 Life Long Learning (6_7) 14:15P106 Life Long Learning (7_7) 11:35
P107 More about Lifelong Learning (选学) 57:48P108 Deep Reinforcemen Learning(3_1) 1:06:22
P109 Deep Reinforcemen Learning(3_2) 13:20P110 Deep Reinforcemen Learning(3_3) 1:05:34
P111 RL Advanced Version_1_Policy Gradient 45:49P112 RL Advanced Version_2_Proximal Policy Optimization 41:34
P113 RL Advanced Version_3_Q-Learning 49:44P114 RL Advanced Version_4_Q-Learning Advanced Tips 38:31
P115 RL Advanced Version_5_Q-Learning Continuous Action 14:58P116 RL Advanced Version_6_Actor-Critic 34:16
P117 RL Advanced Version_7_Sparse Reward 30:16P118 RL Advanced Version_8_Imitation Learning 34:02
P119 RL - Model-based, Large-scale, Meta, Multi-agent, Hide-and-seek, Alpha(选学) 1:42:05

[双语字幕]吴恩达深度学习deeplearning.ai

目录50.0万播放
P1 1.1 欢迎 05:32P2 1.2 什么是神经网络 07:16
P3 1.3 用神经网络进行监督学习 08:29P4 1.4 为什么深度学习会兴起? 10:22
P5 1.5 关于这门课 02:28P6 1.6 课程资源 01:56
P7 2.1 二分分类 08:24P8 2.2 logistic 回归 06:00
P9 2.3 logistic 回归损失函数 08:12P10 2.4 梯度下降法 11:24
P11 2.5 导数 07:11P12 2.6 更多导数的例子 10:28
P13 2.7 计算图 03:34P14 2.8 使用计算图求导 14:35
P15 2.9 logistic 回归中的梯度下降法 06:43P16 2.10 m 个样本的梯度下降 08:01
P17 2.11 向量化 08:05P18 2.12 向量化的更多例子 06:22
P19 2.13 向量化 logistic 回归 07:33P20 2.14 向量化 logistic 回归的梯度输出 09:38
P21 2.15 Python 中的广播 11:07P22 2.16 关于 Python _ numpy 向量的说明 06:50
P23 2.17 Jupyter _ ipython 笔记本的快速指南 03:44P24 2.18 (选修)logistic 损失函数的解释 07:15
P25 3.1 神经网络概览 04:27P26 3.2 神经网络表示 05:15
P27 3.3 计算神经网络的输出 09:58P28 3.4 多个样本的向量化 09:06
P29 3.5 向量化实现的解释 07:38P30 3.6 激活函数 10:57
P31 3.7 为什么需要非线性激活函数? 05:36P32 3.8 激活函数的导数 07:58
P33 3.9 神经网络的梯度下降法 09:58P34 3.10 (选修)直观理解反向传播 15:49
P35 3.11 随机初始化 07:58P36 4.1 深层神经网络 05:52
P37 4.2 前向和反向传播 10:30P38 4.3 深层网络中的前向传播 07:16
P39 4.4 核对矩阵的维数 11:10P40 4.5 为什么使用深层表示 10:34
P41 4.6 搭建深层神经网络块 08:34P42 4.7 参数 VS 超参数 07:17
P43 4.8 这和大脑有什么关系? 03:18P44 1. 吴恩达采访 Geoffrey Hinton 40:23
P45 2. 吴恩达采访Pieter Abbeel 16:04
P46 3. 吴恩达采访 Ian Goodfellow 14:56P47 1.1 训练_开发_测试集 12:05
P48 1.2 偏差_方差 08:47P49 1.3 机器学习基础 06:22
P50 1.4 正则化 09:43P51 1.5 为什么正则化可以减少过拟合? 07:10
P52 1.6 Dropout 正则化 09:26P53 1.7 理解 Dropout 07:05
P54 1.8 其他正则化方法 08:25P55 1.9 归一化输入 05:31
P56 1.10 梯度消失与梯度爆炸 06:08P57 1.11 神经网络的权重初始化 06:13
P58 1.12 梯度的数值逼近 06:36P59 1.13 梯度检验 06:35
P60 1.14 关于梯度检验实现的注记 05:19P61 2.1 Mini-batch 梯度下降法 11:29
P62 2.2 理解 mini-batch 梯度下降法 08:15P63 2.3 指数加权平均 05:59
P64 2.4 理解指数加权平均 09:42P65 2.5 指数加权平均的偏差修正 04:12
P66 2.6 动量梯度下降法 09:21P67 2.7 RMSprop 07:42
P68 2.8 Adam 优化算法 07:08P69 2.9 学习率衰减 06:45
P70 2.10 局部最优的问题 05:24P71 3.1 调试处理 07:11
P72 3.2 为超参数选择合适的范围 08:51P73 3.3 超参数训练的实践:Pandas VS Caviar 06:52
P74 3.4 正则化网络的激活函数 08:56P75 3.5 将 Batch Norm 拟合进神经网络 12:56
P76 3.6 Batch Norm 为什么奏效? 11:40P77 3.7 测试时的 Batch Norm 05:47
P78 3.8 Softmax 回归 11:48P79 3.9 训练一个 Softmax 分类器 10:08
P80 3.10 深度学习框架 04:16P81 3.11 TensorFlow 16:08
P82 1. 吴恩达采访 Yoshua Bengio 25:49P83 2. 吴恩达采访 林元庆 13:37
P84 1.1 为什么是 ML 策略 02:43P85 1.2 正交化 10:39
P86 1.3 单一数字评估指标 07:17P87 1.4 满足和优化指标 05:59
P88 1.5 训练_开发_测试集划分 06:36P89 1.6 开发集合测试集的大小 05:40
P90 1.7 什么时候该改变开发_测试集和指标 11:08P91 1.8 为什么是人的表现 05:47
P92 1.9 可避免偏差 07:00P93 1.10 理解人的表现 11:13
P94 1.11 超过人的表现 06:22P95 1.12 改善你的模型的表现 04:35
P96 2.1 进行误差分析 10:33P97 2.2 清除标注错误的数据 13:06
P98 2.3 快速搭建你的第一个系统,并进行迭代 06:02P99 2.4 在不同的划分上进行训练并测试 10:56
P100 2.5 不匹配数据划分的偏差和方差 18:17P101 2.6 定位数据不匹配 10:09
P102 2.7 迁移学习 11:18P103 2.8 多任务学习 13:00
P104 2.9 什么是端到端的深度学习 11:48P105 2.10 是否要使用端到端的深度学习 10:20
P106 1. 采访 Andrej Karpathy 15:11P107 2. 采访 Ruslan Salakhutdinov 17:09
P108 1.1 计算机视觉 05:45P109 1.2 边缘检测示例 11:31
P110 1.3 更多边缘检测内容 07:58P111 1.4 Padding 09:50
P112 1.5 卷积步长 09:02P113 1.6 三维卷积 10:45
P114 1.7 单层卷积网络 16:11P115 1.8 简单卷积网络示例 08:32
P116 1.9 池化层 10:26P117 1.10 卷积神经网络示例 12:38
P118 1.11 为什么使用卷积? 09:41P119 2.1 为什么要进行实例探究? 03:08
P120 2.2 经典网络 18:19P121 2.3 残差网络 07:08
P122 2.4 残差网络为什么有用? 09:13P123 2.5 网络中的网络以及 1×1 卷积 06:41
P124 2.6 谷歌 Inception 网络简介 10:15P125 2.7 Inception 网络 08:47
P126 2.8 使用开源的实现方案 04:57P127 2.9 迁移学习 08:48
P128 2.10 数据扩充 09:32P129 2.11 计算机视觉现状 12:39
P130 3.1 目标定位 11:55P131 3.2 特征点检测 05:57
P132 3.3 目标检测 05:50P133 3.4 卷积的滑动窗口实现 11:09
P134 3.5 Bounding Box预测 14:32P135 3.6 交并比 04:19
P136 3.7 非极大值抑制 08:03P137 3.8 Anchor Boxes 09:44
P138 3.9 YOLO 算法 07:02P139 3.10 候选区域 06:28
P140 4.1 什么是人脸识别? 04:38P141 4.2 One-Shot 学习 04:45
P142 4.3 Siamese 网络 04:36P143 4.4 Triplet 损失 15:31
P144 4.5 面部验证与二分类 06:06P145 4.6 什么是神经风格转换? 02:03
P146 4.7 什么是深度卷积网络? 07:58P147 4.8 代价函数_bilibili 03:51
P148 4.9 内容代价函数 03:38P149 4.10 风格代价函数 17:01
P150 4.11 一维到三维推广 09:09P151 1.1为什么选择序列模型 03:01
P152 1.2数学符号 09:16P153 1.3循环神经网络 16:32
P154 1.4通过时间的反向传播 06:12P155 1.5不同类型的循环神经网络 09:34
P156 1.6 语言模型和序列生成 12:02P157 1.7 新序列采样 08:39
P158 1.8带有神经网络的梯度消失 06:29P159 1.9 GRU 单元 17:07
P160 1.10 长短期记忆(LSTM) 09:54P161 1.11 双向神经网络 08:20
P162 1.12 深层循环神经网络 05:17P163 2.1 词汇表征 10:08
P164 2.2 使用词嵌入 09:23P165 2.3 词嵌入的特性 11:55
P166 2.4 嵌入矩阵 05:58P167 2.5 学习词嵌入 10:09
P168 2.6 Word2Vec 12:48P169 2.7 负采样 11:54
P170 2.8 GloVe 词向量 11:09P171 2.9 情绪分类 07:38
P172 2.10 词嵌入除偏 11:09P173 3.1 基础模型 06:19
P174 3.2 选择最可能的句子 08:57P175 3.3 定向搜索 11:55
P176 3.4 改进定向搜索 11:01P177 3.5 定向搜索的误差分析 09:44
P178 3.6 Bleu 得分(选修) 16:27P179 3.7 注意力模型直观理解 09:42
P180 3.8 注意力模型 12:23P181 3.9 语音辨识 08:54
P182 3.10 触发字检测 05:03P183 3.11 结论和致谢 02:4

深度学习(卷积网络、循环神经网络、对抗神经网络、Tensorflow实战)

目录29.1万播放
P1 1-1课程概述与环境配置 12:35P2 1-2深度学习与人工智能概述 14:32
P3 1-3机器学习常规套路 12:29P4 1-4K近邻与交叉验证 10:16
P5 1-5得分函数 12:02P6 1-6损失函数 07:53
P7 1-7softmax分类器 08:28P8 1-8课后讨论与答疑 37:19
P9 2-1梯度下降原理-2-2学习率的作用-2-3反向传播-2-4神经网络基础架构-2-5神经网络实例演示-2-6正则化与激活函数 1:05:40P10 2-7drop-out 11:25
P11 2-8课后讨论 14:35P12 3-1tensorflow安装 08:09
P13 3-2tensorflow基本套路 11:10P14 3-3tensorflow常用操作 09:31
P15 3-4tensorflow实现线性回归 15:28P16 3-5tensorflow实现手写字体 12:47
P17 3-6参数初始化 08:28P18 3-7迭代完成训练 10:59
P19 3-8课后讨论 24:14P20 4-1卷积体征提取 12:20
P21 4-2卷积计算流程 09:34P22 4-3卷积层计算参数 16:29
P23 4-4池化层操作 13:27P24 4-5卷积网络整体架构 07:02
P25 4-6经典网络架构 13:02P26 5-1卷积网络复习(验证码数据代码下载–) 07:07
P27 5-2使用CNN训练mnist数 11:47P28 5-3卷积与池化操作 09:03
P29 5-4定义卷积网络计算流程 13:29P30 5-5完成迭代训练 10:56
P31 5-6验证码识别概述 10:18P32 5-7验证码识别流程 17:43
P33 6-1自然语言处理与深度学 11:58P34 6-2语言模型 12:29
P35 6-3神经网络模型 10:48P36 6-4CBOW模型 13:07
P37 6-5参数更新 13:03P38 6-6负采样模型 06:33
P39 6-7案例:影评情感分类(数据 17:55P40 7-1基于词袋模型训练分类器 11:36
P41 7-2准备word2vec输入数据 10:53P42 7-3使用gensim构建word2 16:36
P43 7-4tfidf原理 13:30P44 7-5对抗生成网络原理概述(GAN数据代码下载—) 10:26
P45 7-6GAN网络结构定义 10:09P46 7-7 Gan迭代生成 11:55
P47 7-8DCGAN网络特性(DCGAN数据代码下载—) 07:40P48 7-9DCGAN网络细节 12:48
P49 8-1 RNN网络架构 12:23P50 8-2LSTM网络架构 12:00
P51 8-3案例:使用LSTM进行情 13:14P52 8-4情感数据集处理 13:08
P53 8-5基于word2vec的LSTM模型 17:37P54 8-6趣味网络串讲(数据代 11:25
P55 8-7课后讨论版 07:43
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在Github上,有许多受欢迎的深度学习开源项目。以下是其中一些备受欢迎的深度学习开源项目: 1. TensorFlow:由Google开发的机器学习库,广泛用于深度学习任务。 2. PyTorch:由Facebook开发的深度学习框架,提供动态计算图和丰富的功能。 3. Keras:一个高级神经网络API,可以运行在多个深度学习框架上,如TensorFlow和Theano。 4. Caffe:一个高效的深度学习框架,以速度和模型表达能力著称。 5. MXNet:一个高度可扩展的深度学习框架,支持分布式训练和多种编程语言。 6. Theano:一个基于Python的开源库,用于定义、优化和评估数学表达式,特别适用于深度学习。 7. scikit-learn:一个用于机器学习和数据挖掘的Python库,包含了许多经典的机器学习算法。 8. Darknet:一个轻量级的深度学习框架,特别适用于物体检测和图像分类任务。 9. Caffe2:Facebook开发的深度学习框架,具有高效的分布式训练能力。 10. Torch:一个科学计算框架,提供了丰富的工具和库,适用于深度学习任务。 这只是其中一小部分受欢迎的深度学习开源项目。Github上还有许多其他项目,涵盖了各种深度学习任务和应用领域,供开发者们使用和贡献。 ### 回答2: GitHub上最受欢迎的57个深度学习开源项目是基于其Stars数和社区贡献度的排名,以下是其中一些项目的简介: 1. TensorFlow:由Google开发的深度学习框架,功能强大且广泛应用。 2. PyTorch:Facebook开发的深度学习框架,被广泛用于研究和开发。 3. Keras:用户友好的深度学习库,可以在TensorFlow、Theano等后端运行。 4. Caffe:质量高且快速的深度学习框架,适用于计算机视觉任务。 5. Theano:用于定义、优化和评估数学表达式的Python库,支持高效的机器学习计算。 6. Torch:基于LUA的科学计算框架,广泛用于机器学习。 7. MXNet:适用于分布式、高效的深度学习框架。 8. Fast.ai:构建在PyTorch之上的高级API,使深度学习更易于使用。 9. TensorFlow.js:用于在浏览器上进行机器学习的库。 10. Dlib:用于图像处理和机器学习任务的C++库。 11. DeepSpeech:Mozilla构建的自动语音识别框架。 12. OpenCV:图像处理和计算机视觉的开源库,具有深度学习支持。 13. GANs:生成对抗网络的PyTorch实现,用于生成逼真的图像。 14. TensorFlow Object Detection API:用于目标检测的TensorFlow API。 15. MLBox:一个自动化机器学习工具,用于数据预处理、特征选择、模型选择等。 16. NLP:使用自然语言处理技术的Python库。 17. Autokeras:自动化机器学习库,用于快速构建和部署模型。 18. OpenAI Gym:用于开发和比较强化学习算法的工具包。 19. DeepFace:FaceNet网络的Keras实现,用于人脸识别。 20. StyleTransfer:用于图像风格转换的PyTorch实现。 这只是其中一些受欢迎的深度学习项目,GitHub上还有许多其他优秀的项目,每个项目都具有不同的特点和应用领域。无论您是初学者还是专业人士,都可以在GitHub上找到适合您需求的项目

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值