- 博客(5)
- 收藏
- 关注
原创 深度学习-梯度下降优化
小批量下降(mini-batch) 将样本划分为较小样本集批次进行下降梯度计算,可有效提升梯度下降的次数 fot t in range(1,5001): #前向传播 #计算J = 1/m*sum(J(y_hat,y)) #后向传播 其中,m表示单批次中的样本数量 批量下降算法优化 为节省算力和加快学习效率,利用数学方法计算梯度趋势的平均值替代梯度,降低梯度的摇摆幅度。 动量梯度下降: vdw = betavdw+(1-beta)dw vdb = betavdb+(1-beta)db
2020-07-14 23:00:53
88
原创 深度学习——神经网络理论
神经网络-前向传播 前向传播指神经网络由样本数据进行预测的过程,从样本值x不断生成各层输出a[l]的过程。 Z[l] = np.dot(w[l],x)+b[l]#(1) a[l] = g[l](z[l])#(2) #在1式中,b[l]为m维向量,对应l层m个神经元,会触发广播机制,自动复制为(m,n)矩阵,n为样本数量 #g[l]表示l层的激活函数,主要为实现l层输出的标准化,一般有Relu、tanh和西格玛三种函数,在深度神经网络中,隐藏层主要使用tanh函数,输出层使用西格玛函数。 神经网络-后向传播
2020-07-14 22:25:07
151
原创 Python-基本算法的实现
二分查找 def binary_search(l, r):#二分查找,仅可在有序数组中实现 while l < r: m = l + (r - l) // 2 if f(m): # 判断条件,选中值是否为目标 return m elif le(m): #选择左区间继续寻找 r = m # new range [l, m) elif ri(m): #选择右区间继续寻找
2020-07-10 19:12:55
128
原创 python实现梯度下降
import numpy as np def gradien_desc(theta, X, y, alpha, iters): # 系数矩阵、自变量矩阵、因变量矩阵、收敛系数和迭代次数 loss_his = np.zeros(iters) theta_his = np.zeros((iters,2)) m = len(y) for i in range(iters): y_hat = np.dot(theta, X) theta -= alph
2020-07-09 21:03:10
165
原创 Python复习之MySQL操作
Python-随笔Python复习之MySQL操作MySQL的安装MySQL的函数创建表site设置表的主键数据插入 Python复习之MySQL操作 MySQL的安装 pip/(conda) install mysql-connector-python MySQL的函数 from mysql import connector frommysql.connector import Error try{ connection = connector.connect(host = host_name, user
2020-07-09 20:20:51
103
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人