![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
ReEchooo
这个作者很懒,什么都没留下…
展开
-
关于张量的理解,以及其与向量的区别
n阶张量可以理解为n∗nn*nn∗n的矩阵,就像n维向量可以理解为n∗1n*1n∗1的矩阵一样。因为n∗1n*1n∗1的矩阵中,每个矩阵的元素代表的是隐含的基向量的长度,对于基向量的方向,我们是默认的一种表示方法,所以这些基向量线性组合在一起就构成了n维向量。同理,n∗nn*nn∗n的矩阵中,每个元素都隐含着基向量的长度,对于基向量的方向,我们是默认的一种表示方法,但值得注意的是,这里的基向量是一种组合式的基向量,而不是n维向量中的那种单一式的基向量,而长度也只是其中某一个向量的长度。..原创 2020-10-09 16:29:37 · 3517 阅读 · 1 评论 -
吴恩达机器学习笔记——监督学习
吴恩达机器学习笔记——监督学习1. 单变量线性回归2. 多变量线性回归3. 逻辑回归(Logistic Regression)4. 正则化监督学习的两大问题是——回归、分类1. 单变量线性回归所谓回归,就是通过一些已知点来拟合一条曲线,从而能够预测一些未知点的值。线性回归就是用一次函数 y=ax+by=ax+by=ax+b ,进行拟合。不过在机器学习中更加喜欢写成hθ(x)=θ0+θ1xh_\theta(x) = \theta_0 + \theta_1xhθ(x)=θ0+θ1x如何确定最原创 2020-09-09 16:30:57 · 191 阅读 · 0 评论