机器学习
梓沂
这个作者很懒,什么都没留下…
展开
-
反向传播计算前级delta时,后级delta去掉常数偏置参数delta0的原因
学习吴恩达机器学习时,课程和练习题中讲过,计算时需要去掉代码中也做了类似处理: for t in range(m): a1t = a1[t,:] # (1, 401) z2t = z2[t,:] # (1, 25) a2t = a2[t,:] # (1, 26) ht = h[t,:] # (1, 10) yt = y[t,:] # (1, 10) d3..原创 2020-11-26 11:27:18 · 321 阅读 · 0 评论 -
反向传播算法中,逐级向前计算delta公式的由来
https://zhuanlan.zhihu.com/p/25081671详解反向传播算法(上)原创 2020-11-19 17:10:33 · 1528 阅读 · 0 评论 -
如何用矩阵乘法重写计算梯度函数
如何用矩阵乘法重写计算梯度函数中间比较难理解的部分是求和符号转换成矩阵乘法。在吴恩达课程的练习文档中,已经把每个子项列出:等式右边还有许多细节需要明确:针对其中的一项x0(i)x_0^{(i)}x0(i)来说:x0(i)x_0^{(i)}x0(i)是一个数(标量),比如是6,但是加上求和符号∑\sum∑后,x0(i)x_0^{(i)}x0(i)就变成一串数:“6,3,2…,x0(i)x_0^{(i)}x0(i)”,一共是m个x0x_0x0(样本),在练习中一共5000个x0x_0x.原创 2020-11-04 17:05:52 · 636 阅读 · 0 评论 -
如何理解向量化的梯度函数,矩阵化的theta西塔θ
黄海广博士在(吴恩达)机器学习课程练习3(ML-Exercise3)中,重写逻辑回归中梯度函数的实现,改为完全向量化(即没有“for”循环)向量化前的梯度函数(“for”循环模式):def gradient_with_loop(theta, X, y, learningRate): theta = np.matrix(theta) X = np.matrix(X) y = np.matrix(y) parameters = int(theta.ravel().s原创 2020-10-28 23:36:56 · 2687 阅读 · 0 评论