自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 深度学习-梯度下降优化

小批量下降(mini-batch) 将样本划分为较小样本集批次进行下降梯度计算,可有效提升梯度下降的次数 fot t in range(1,5001): #前向传播 #计算J = 1/m*sum(J(y_hat,y)) #后向传播 其中,m表示单批次中的样本数量 批量下降算法优化 为节省算力和加快学习效率,利用数学方法计算梯度趋势的平均值替代梯度,降低梯度的摇摆幅度。 动量梯度下降: vdw = betavdw+(1-beta)dw vdb = betavdb+(1-beta)db

2020-07-14 23:00:53 88

原创 深度学习——神经网络理论

神经网络-前向传播 前向传播指神经网络由样本数据进行预测的过程,从样本值x不断生成各层输出a[l]的过程。 Z[l] = np.dot(w[l],x)+b[l]#(1) a[l] = g[l](z[l])#(2) #在1式中,b[l]为m维向量,对应l层m个神经元,会触发广播机制,自动复制为(m,n)矩阵,n为样本数量 #g[l]表示l层的激活函数,主要为实现l层输出的标准化,一般有Relu、tanh和西格玛三种函数,在深度神经网络中,隐藏层主要使用tanh函数,输出层使用西格玛函数。 神经网络-后向传播

2020-07-14 22:25:07 151

原创 Python-基本算法的实现

二分查找 def binary_search(l, r):#二分查找,仅可在有序数组中实现 while l < r: m = l + (r - l) // 2 if f(m): # 判断条件,选中值是否为目标 return m elif le(m): #选择左区间继续寻找 r = m # new range [l, m) elif ri(m): #选择右区间继续寻找

2020-07-10 19:12:55 128

原创 python实现梯度下降

import numpy as np def gradien_desc(theta, X, y, alpha, iters): # 系数矩阵、自变量矩阵、因变量矩阵、收敛系数和迭代次数 loss_his = np.zeros(iters) theta_his = np.zeros((iters,2)) m = len(y) for i in range(iters): y_hat = np.dot(theta, X) theta -= alph

2020-07-09 21:03:10 165

原创 Python复习之MySQL操作

Python-随笔Python复习之MySQL操作MySQL的安装MySQL的函数创建表site设置表的主键数据插入 Python复习之MySQL操作 MySQL的安装 pip/(conda) install mysql-connector-python MySQL的函数 from mysql import connector frommysql.connector import Error try{ connection = connector.connect(host = host_name, user

2020-07-09 20:20:51 103

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除