自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 2021-03-03

1.线性方程组可以理解为向量之间的相加例如:3x+2y=7-6x+6y=6可以理解为[-3,6] [2,6],[7,6]向量累加之和2.法向量是方程系数本质的原因是两两向量的内积为0.

2021-03-03 17:05:39 68 1

原创 线性代数

1 向量组A的最大无关组的向量个数计做rank(A),秩越高,代表此向量组实际上越复杂2几何上可以这么理解,线性相关可以看成平面上平行的直线,线性无关就是两相交直线。两直线正交,即垂直相交,当然线性无关;然而相交却不一定垂直(正交)。...

2020-12-18 20:21:44 331 1

原创 机器学习

机器学习线性回归文章目录机器学习线性回归一、单变量线性回归1.损失函数2.求参数θ0\theta_0θ0​1.梯度下降二、多变量线性回归三、多项式回归1.样子四、正规方程方法一、单变量线性回归1.损失函数损失函数实际上最后算出来是一个数,因为损失函数是判断拟合程度好坏的函数,所以当损失函数的值最小时,求出θ0\theta_0θ0​ 等即可。2.求参数θ0\theta_0θ0​1.梯度下降二、多变量线性回归要归一化尺度,否则容易不好梯度下降。三、多项式回归1.样子四、正规方

2020-10-19 18:02:18 66

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除