机器学习
可可茜里的传说
这个作者很懒,什么都没留下…
展开
-
sklearn- 一元线性回归
# sklearn完成机器学习的常用的库,算法封装在程序中,只需调用接口就可以使用机器学习算法from sklearn.linear_model import LinearRegressionimport numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt("data.csv", delimiter=",")x_data = data[:,0]y_data = data[:,1]plt.scatter(x原创 2021-11-16 15:59:18 · 972 阅读 · 0 评论 -
1-梯度下降法 一元线性回归
import numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt('data.csv',delimiter=",")x_data = data[:,0] #数据切分,第一行y_data = data[:,1] #数据切分,第二行plt.scatter(x_data,y_data) #散点图绘制plt.show() #图像大致呈散点图分布# 学习率 learing ratelr = 0.000原创 2021-11-16 15:38:07 · 1561 阅读 · 0 评论 -
2.3 梯度下降法
梯度下降算法的思想初始化senta1,senta0不断改变senta1,senta0,直到J(senta1,senta0)到达一个全局最小值,或局部极小值。由下列这张图来看其结果,红色区域值较大,蓝色区域值较大实现最小点的方法:不断求导,寻找梯度下降方向,不断迭代,最终找到最小点初始值在不同位置时,梯度下降的方向不同,最终找到的值并不相同,我们称其找到的点为局部最小值。梯度下降法执行:学习率:主要是用来优化步长通过公式来改变参数计算完成,同时更新(正确做法)梯度下降思想无论原创 2021-11-16 11:15:36 · 1593 阅读 · 0 评论 -
2.2 代价函数
代价函数最小二乘法真实值y,预测值ho(x),则误差平方为(y 一 ho(x))2找到合适的参数,使得误差平方和∶代价函数代价函数 senta = 0.5时senta1 = 0时取多个senta1 可以得到以下曲线,可以找找到代价函数最小点senta0 截距 senta1 斜率等高线中心点:代价函数最小值相关系数衡量线性相关性的强弱决定系数相关系数R2(coefficient of determination)是用来描述两个变量之间的线性关系的,但决定系数的适用范围原创 2021-11-16 10:52:31 · 911 阅读 · 0 评论 -
2.1 一元线性回归
回归(Regression)回归一词最早由英国科学家弗朗西斯·高尔顿(Francis Galton)提出,他还是著名的生物学家、进化论奠基人查尔斯·达尔文(Charles Darwin )的表弟。高尔顿深受进化论思想的影响,并把该思想引入到人类研究,从遗传的角度解释个体差异形成的原因。高尔顿发现,虽然有一个趋势∶父母高,儿女也高;父母矮,儿女也矮。但给定父母的身高,儿女辈的平均身高却趋向于或者“回归”到全体人口的平均身高。换句话说,即使父母双方都异常高或者异常矮,儿女的身高还是会趋向于人口总体的平均身原创 2021-11-16 10:26:20 · 567 阅读 · 0 评论 -
1.3 机器学习基础概念
训练数据、验证数据、测试数据建模之前,我们可以把数据分成三部分。训练集(Training data)验证集(Validation data)测试集(Test data)训练集还是用来训练,构建模型。验证集是用来在模型训练阶段测试模型的好坏。等模型训练好之后,再用测试集来评估模型的好坏。学习方式1.监督学习2.无监督学习:没有标签的数据3.半监督学习 (使用较少)半监督学习是监督学习和无监督学习相结合的一种学习方式。主要是用来解决使用少量带标签的数据和大量没有标签的数据进行训练和分原创 2021-11-16 09:46:30 · 693 阅读 · 0 评论 -
1.1 机器学习背景知识
人工智能(AI)起源人工智能是一个宽泛的概念,我们需要具体的算法大类:机器学习(包含很多算法)神经网络(NM) 其中一个算法深度学习(DL) 本质就是神经网络深度学习层数变多,属性深度越深人工智能的包含关系以及走向深度学习与传统算法的区别机器学习和深度学习的应用图像识别目标识别人脸识别图片描述图像风格转换语音识别文本分类机器翻译诗歌创作图像生成实际应用本类主要将传统的机器学习算法...原创 2021-11-16 09:19:19 · 961 阅读 · 0 评论