机器学习基础概论-Github神经网络CTR-GCN

[中英字幕]吴恩达机器学习系列课程_哔哩哔哩_bilibili

https://github.com/fengdu78/Coursera-ML-AndrewNg-Noteshttps://github.com/fengdu78/Coursera-ML-AndrewNg-Notes

机器学习个人笔记-目录

2021-12-15 Task Process 30/112

2021-12-16

监督学习

监督学习(supervised learning)的任务是学习一个模型,使模型能够对任意给定的输入,对其相应的输出做出一个好的预测。

我们的任务是根据数据集1建立一个预测模型(model),即学习算法(learning algorithm)。这个过程称为“学习(learning)”或“训练(training)”。

由于我们得到的学得模型只是接近了数据的某种潜在规律,因此被称为‘假设(hypothesis)’。相对应的,潜在规律自身则被称为‘真实(ground-truth)’。学习的目的就在于找到最好的‘假设(hypothesis)’。

  • 分类问题(离散)
  • 回归问题(连续)
  • (a) 回归——给定一张人的照片,我们必须根据给定的照片预测他们的年龄

    (b) 分类——给定一个患有肿瘤的患者,我们必须预测肿瘤是恶性的还是良性的

  • 当我们试图预测的目标变量是连续的时,例如在我们的住房示例中,我们将学习问题称为回归问题。当 y 只能采用少量离散值时(例如,如果在给定居住面积的情况下,我们想预测住宅是房屋还是公寓),我们称之为分类问题。

论文课题: 神经网络CNN 属于监督学习

无监督学习

非监督学习(unsupervised learning)为直接对数据进行建模。没有给定事先标记过的训练范例,所用的数据没有属性或标签这一概念。事先不知道输入数据对应的输出结果是什么。

自动对输入的资料进行分类或分群,以寻找数据的模型和规律。

聚类:收集 1,000,000 个不同的基因,并找到一种方法将这些基因自动分组到不同的变量中,这些组在某种程度上相似或相关,例如寿命、位置、角色等。

非聚类:“鸡尾酒会算法”,可让您在混乱的环境中找到结构。(即从鸡尾酒会上的声音网中识别个人声音和音乐)。

监督学习与非监督学习 - 知乎

GitHub 使用

梯度下降算法

Batch gradient descent(批梯度下降,BGD)

​​​​​几种梯度下降方法对比(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)_天泽28的专栏-CSDN博客_几种梯度下降方式

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值