- 博客(3)
- 收藏
- 关注
原创 numpy搭建简易神经网络(保姆级教程)
本篇文章详细教如何用numpy手动搭建一个简单的两层神经网络,对每一步的操作都有详细的解释。涉及正向传播,反向传播,链式求导。参考教材:邱锡鹏《神经网络与深度学习》
2022-10-28 18:23:56 3274 2
原创 多项式回归梯度下降法
这次我们用矩阵运算,先看下图:一眼便能看出我们的计算思路。w和x用矩阵表示,w_matrix是(1,M)的矩阵,x_matrix是(M,n)的矩阵,这两矩阵相乘的结果正好就是(1, n)的矩阵,正好代表的就是y的值。1.构建x_matrix矩阵构建该矩阵,我们使用拼凑的方法,numpy中有一个函数vstack()可以将两个数组拼凑一起,如下展示:我们一开始创建的X数据集是一个[X1, X2, X3,......,Xn]的一维数组,分别计算这个数组的0次方,1次方,2次方,然后拼凑成一个二维数组。
2022-09-28 23:29:40 716
原创 一元线性回归梯度下降法(通俗易懂,初学专属)
先来理解一些基础概念。Y= w*X+b,w代表权重,b代表偏置值。我们的目的就是要求出合适的w和b,用Y= w*X+b这条曲线来拟合我们的数据集。2.1 那么如何求w和b呢用梯度下降法梯度下降的通俗理解就是:我们可以先给未知量w和b一个初始值。然后通过让它们自己学习一直变,变到合适的值为止。以我们的例子为例,最终结果应当是Y =3*X+7这条曲线拟合数据集的。我们假设w=1,b=1.进行一次梯度下降后,可能w就变成2,b就变成3(此处夸大了,一般变化不会那么大,一般变化很小,所以需要梯度下降很多次。
2022-09-27 21:15:38 1890 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人