![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
魔方科研
这个作者很懒,什么都没留下…
展开
-
机器学习学习笔记(五)——分类
二分类问题在分类问题中,一般不使用线性回归进行分类,因为效果很差。在二元分类问题上,我们使用logistic回归进行分类假设函数在logistic回归中,有logistic函数g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}g(z)=1+e−z1假设函数为hθ(x)=11+e−θTxh_\theta(x)=\frac{1}{1+e^{-\theta^Tx}...原创 2019-07-03 10:49:52 · 218 阅读 · 0 评论 -
机器学习学习笔记(一)——监督学习与无监督学习
最近LABVIEW学不下去了给自己开了新坑,在B站上跟着吴恩达学机器学习,希望这次能够坚持下去吧!在第一章里除了介绍了机器学习的应用等等等之外介绍了两个概念,监督学习和无监督学习。监督学习在监督学习中,数据集是有标签的,也就是说机器在学习的时候是知道正确答案的。这里吴老师给出了两个例子(或者我只记住两个)...原创 2019-06-28 16:42:19 · 332 阅读 · 0 评论 -
机器学习学习笔记(二)——线性回归
基本名词解释变量意义m样本个数x输入数据y理论输出结果(x,y)一个样本(xi,yi)(x^i ,y^i)(xi,yi)第i个样本机器学习的基本模型找到一个函数模型,使输入数据通过这个模型更加贴近输出结果(?)示例:线性回归题目背景现有某一区域的房价数据集(房间面积和对应售价),让机器测算出某一面积的房价对应的售价是多少?使用...原创 2019-06-29 10:47:38 · 213 阅读 · 0 评论 -
机器学习学习笔记(六)——正则化
正则化过拟合问题在样本的特征阶数过高或者特征数量过多的情况下可能会出现过拟合问题,其表现是拟合曲线可能会完美的通过各个点,但拟合曲线没有普遍性,扭扭曲曲的,对于新的变量预测能力较差。解决的办法是:减少变量正则化正则化正则化的方法是加入惩罚项,使一些无关紧要的变量趋近为0。线性回归的正则化代价函数J(θ)=12m[∑i=1m(hθ(xi)−yi)2+λ∑j=1nθj2J(\...原创 2019-07-04 17:18:40 · 306 阅读 · 0 评论 -
机器学习学习笔记(三)——矩阵
矩阵的表示m*n矩阵为m行n列的矩阵。AijA_{ij}Aij为矩阵A中第i行第j列元素。矩阵的运算加法和减法对应元素各自相加,即Cij=Aij+BijC_{ij}=A_{ij}+B_{ij}Cij=Aij+Bij矩阵的与常数的乘法和除法矩阵中每个元素与常数相乘或相除。矩阵与矩阵的乘法m*n矩阵与n*o矩阵相乘结果是m*o矩阵。矩阵相乘的运算方法是A的第i行的所有元素与...原创 2019-06-29 17:01:22 · 589 阅读 · 0 评论 -
机器学习学习笔记(四)——特征缩放与多项式回归
多个特征表达方法符号含义n特征的数量Xj(i)X^{(i)}_jXj(i)第i个样本的第j个特征假设函数对于多个特征的假设函数,有hθ(x)=θ0+θ1x1+θ2x1+θ3x3+θ4x4h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_1+\theta_3x_3+\theta_4x_4hθ(x)=θ0+θ1...原创 2019-06-30 13:43:35 · 731 阅读 · 0 评论