机器学习
探索机器学习的道路
氢气氧气氮气
AI方向研究生,在学python基础、web应用开发、GPT应用等
展开
-
逻辑回归(Logistic Regression)
在分类问题中,你要预测的变量 y是离散的值,我们将学习一种叫做逻辑回归 (Logistic Regression) 的算法,这是目前最流行使用最广泛的一种学习算法。在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一个肿瘤是恶性的还是良性的。我们从二元的分类问题开始讨论。原创 2023-09-08 16:45:45 · 641 阅读 · 0 评论 -
prompt-engineering-note(面向开发者的ChatGPT提问工程学习笔记)
ChatGPT Prompt Engineering Learning Notesfor Developers (面向开发者的ChatGPT提问工程学习笔记)原创 2023-08-16 19:49:00 · 1857 阅读 · 0 评论 -
特征工程和多项式回归
特征工程(Feature Engineering)特征工程是将原始数据转化成更好的表达问题本质的特征的过程,使得将这些特征运用到预测模型中能提高对不可见数据的模型预测精度。特征工程简单讲就是发现对因变量y有明显影响作用的特征,通常称自变量x为特征,特征工程的目的是发现重要特征。如何能够分解和聚合原始数据,以更好的表达问题的本质?这是做特征工程的目的。 “feature engineering is manually designing what the input x’s should be.” “yo原创 2023-07-17 20:11:50 · 209 阅读 · 0 评论 -
学习率的选择
梯度下降算法收敛所需要的迭代次数根据模型的不同而不同,我们不能提前预知,我们可以绘制迭代次数和代价函数的值的图表来观测算法在何时趋于收敛。原创 2023-07-17 19:44:19 · 101 阅读 · 0 评论 -
特征缩放(归一化处理)
以房价问题为例,假设我们使用两个特征,房屋的尺寸和房间的数量,尺寸的值为 0-2000平方英尺,而房间数量的值则是0-5,以两个参数分别为横纵坐标,绘制代价函数的等高线图能,看出图像会显得很扁,梯度下降算法需要非常多次的迭代才能收敛。在我们面对多维特征问题的时候,我们要保证这些特征都具有相近的尺度,这将帮助梯度下降算法更快地收敛。解决的方法是尝试将所有特征的尺度都尽量缩放到-1到1之间。原创 2023-07-17 19:25:38 · 214 阅读 · 0 评论 -
多元线性回归的梯度下降法
多元线性回归的梯度下降法原创 2023-07-17 16:15:39 · 183 阅读 · 0 评论 -
基于梯度下降的线性回归(Gradient Descent For Linear Regression)
梯度下降是很常用的算法,它不仅被用在线性回归上和线性回归模型、平方误差代价函数。在本次,我们要将梯度下降和代价函数结合。我们将用到此算法,并将其应用于具体的拟合直线的线性回归算法里。原创 2023-07-15 20:43:36 · 272 阅读 · 0 评论 -
梯度下降(Gradient Descent)
梯度下降是一个用来求函数最小值的算法,本次,我们将使用梯度下降算法来求出代价函数原创 2023-07-15 20:28:57 · 293 阅读 · 0 评论 -
代价函数(Cost Function)
我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。还有其他的代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差(modeling error)【也就是y减去y。通过不断更改斜率和截距的值,以此获得代价函数的值,我们绘制一个等高线图,三个坐标分别为。,便是直线的斜率和在y轴上的截距。原创 2023-07-13 16:16:20 · 207 阅读 · 0 评论 -
线性回归模型(Linear regression)
通过训练集(x,y)去矫正得到假设h【也可以称为函数f】,之后可以通过这个假设h,输入特征/输入变量x,去预测结果y-hat。原创 2023-07-13 16:03:29 · 123 阅读 · 0 评论 -
机器学习、监督学习、无监督学习基本概念
百度百科吴恩达机器学习课程机器学习笔记。原创 2023-07-05 15:51:04 · 692 阅读 · 0 评论