机器学习目录结构

<img src=“//s1.hdslb.com/bfs/static/jinkela/video/asserts/playing.gif”
P1第一课 第一周 1.1 欢迎参加《机器学习》课程02:45

P21.2 机器学习应用
04:29
P32.1 机器学习定义05:36P42.2 监督学习-part-106:57P52.3 监督学习-part-207:17P62.4 无监督学习-part-108:54P72.5 无监督学习-part-203:40P82.6 Jupyter notebooks04:30P93.1 线性回归模型-part-110:27P103.2 线性回归模型-part-206:45P113.3 代价函数公式09:05P123.4 理解代价函数15:47P133.5 可视化代价函数08:34P143.6 可视化举例06:01P154.1 梯度下降08:04P164.2 梯度下降的实现10:00P174.3 理解梯度下降07:02P184.4 学习率09:04P194.5 用于线性回归的梯度下降06:37P204.6 运行梯度下降05:49P21第二周 1.1 多维特征09:52P221.2 向量化-part-106:55P231.3 向量化-part-206:53P241.4 用于多元线性回归的梯度下降法07:46P252.1 特征缩放-part-106:36P262.2 特征缩放-part-207:35P272.3 判断梯度下降是否收敛05:40P282.4 如何设置学习率06:07>
P292.5 特征工程03:05
P302.6 多项式回归05:52P31第三周 1.1 动机与目的09:48P321.2 逻辑回归09:49P331.3 决策边界10:43P342.1 逻辑回归中的代价函数12:00P352.2 简化逻辑回归代价函数05:45P363.1 实现梯度下降06:32P374.1 过拟合问题11:53P384.2 解决过拟合08:16P394.3 正则化09:04P404.4 用于线性回归的正则方法08:53P414.5 用于逻辑回归的正则方法05:33P42第二课 第一周1.1 欢迎02:54P431.2 神经元和大脑10:53P441.3 需求预测16:23P451.4 举例-图像感知06:36P462.1 神经网络中的网络层09:50P472.2 更复杂的神经网络07:19P482.3 神经网络前向传播05:24P493.1 如何用代码实现推理07:13P503.2 Tensorflow中数据形式11:20P513.3 搭建一个神经网络08:21P524.1 单个网络层上的前向传播05:07P534.2 前向传播的一般实现07:53P545.1 强人工智能10:35P556.1 神经网络为何如此高效04:23P566.2 矩阵乘法09:28P576.3 矩阵乘法规则09:33P586.4 矩阵乘法代码06:42P59第二周 1.1 Tensorflow实现03:38P601.2 模型训练细节13:41P612.1 Sigmoid激活函数的替代方案05:30P622.2 如何选择激活函数08:25P632.3 为什么模型需要激活函数05:32P643.1 多分类问题03:29P653.2 Softmax11:33P663.3 神经网络的Softmax输出07:25P673.4 Softmax的改进实现09:13P683.5 多个输出的分类04:20P694.1 高级优化方法06:26P704.2 其他的网络层类型08:56P71第三周 1.1 决定下一步做什么03:42P721.2 模型评估10:26P731.3 模型选择&交叉验证测试集的训练方法14:53P742.1 通过偏差与方法进行诊断11:13P752.2 正则化、偏差、方差10:37P762.3 制定一个用于性能评估的基准09:26P772.4 学习曲线12:14P782.5 (修订)决定下一步做什么08:47P792.6 方差与偏差10:45P803.1 机器学习开发的迭代07:43P813.2 误差分析08:21P823.3 添加更多数据14:24P833.4 迁移学习-使用其他任务中的数据12:11P843.5 机器学习项目的完整周期08:45P853.6 公平、偏见与伦理09:56P864.1 倾斜数据集的误差指标11:36P874.2 精确率与召回率的权衡11:50P88第四周 1.1 决策树模型07:06P891.2 学习过程11:21P902.1 纯度07:50P912.2 选择拆分信息增益11:52P922.3 整合09:29P932.4 独热编码One-hot05:26P942.5 连续有价值的功能06:54P952.6 回归树09:51P963.1 使用多个决策树03:57P973.2 有放回抽样04:00P983.3 随机森林06:23P993.4 XGBoost07:26P1003.5 何时使用决策树06:55P101第三课 第一周1.1 欢迎来到第三课03:22P1022.1 什么是聚类04:13P1032.2 K-means直观理解06:50P1042.3 K-means算法09:50P1052.4 优化目标11:13P1062.5 初始化 K-means08:54P1072.6 选择聚类数量07:58P1083.1 发现异常事件11:54P1093.2 高斯正态分布10:51P1103.3 异常检测算法12:09P1113.4 开发与评估异常检测系统11:39P1123.5 异常检测与监督学习对比08:09P1133.6 选择使用什么特征14:58P114第二周 1.1 提出建议05:33P1151.2 使用每个特征11:23P1161.3 协同过滤算法13:56P1171.4 二进制标签08:28P1182.1 均值归一化08:46P1192.2 协同过滤TensorFlow实现11:38P1202.3 寻找相关特征06:34P1213.1 协同过滤与基于内容过滤对比09:46P1223.2 基于内容过滤的深度学习方法09:43P1233.3 从大型目录中推荐07:53P1243.4 推荐系统中的伦理10:49P1253.5 基于内容过滤的TensorFlow实现04:49P126第三周 1.1 什么是强化学习08:49P1271.2 示例:火星探测器06:42P1281.3 强化学习的回报10:19P1291.4 决策:强化学习中的策略02:38P1301.5 审查关键概念05:35P1312.1 状态-动作价值函数定义10:37P1322.2 状态-动作价值函数示例05:23P1332.3 贝尔曼方程12:53P1342.4 random stochastic environment(可选)08:25P1353.1 示例:连续状态空间应用06:25P1363.2 登月器05:54P1373.3 学习状态值函数16:51P1383.4 算法改进:改进的神经网络架构03:01P1393.5 算法改进:ε-贪婪策略09:00P1403.6 算法改进:小批量和软更新(可选)11:44P1413.7 强化学习的状态02:55P1423.8 课程总结和致谢03:12

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值