python
zheng252635
这个作者很懒,什么都没留下…
展开
-
两层隐藏网络剖析(上一篇讲到用已有训练好的网络参数做分类,这一篇详细剖析下这两层的网络)
# coding: utf-8 import sys, os sys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定 import numpy as np from common.layers import * from common.gradient import numerical_gradient ##计算数值微分,后续会讲到先拿来主义 from co...原创 2020-02-24 00:07:09 · 461 阅读 · 0 评论 -
关于梯度计算(实际上用数值微分近似计算)
# coding: utf-8 import numpy as np import matplotlib.pylab as plt ##数值微分 def numerical_diff(f, x): h = 1e-4 # 0.0001 return (f(x+h) - f(x-h)) / (2*h) def function_1(x): return 0.01*x**...原创 2020-02-18 23:35:49 · 1302 阅读 · 0 评论 -
softmax赏析
def softmax(x): if x.ndim == 2: x = x.T x = x - np.max(x, axis=0) y = np.exp(x) / np.sum(np.exp(x), axis=0) return y.T x = x - np.max(x) # 溢出对策 return np...原创 2020-02-17 23:45:30 · 339 阅读 · 0 评论 -
一个两隐藏层网络详解(看会了相当于掌握了最基础的神级网络)
# coding: utf-8 import sys, os sys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定 import numpy as np import pickle from dataset.mnist import load_mnist ##导入mnist手写体识别 from common.functions import sigmoid...原创 2020-02-17 23:31:05 · 1168 阅读 · 0 评论 -
sigmoid relu 激活函数
本人第一篇csdn博客,对手动敲一遍基础激活函数加深下理解 import numpy as np import matplotlib.pyliab as plt def sigmoid(x): return 1/(1 + np.exp(x)) ##注意不要写写成 x/(1 + np.exp(x)) x = np.arange(-10, 10, 0.1) y = sigmoid(...原创 2020-02-17 20:44:16 · 210 阅读 · 0 评论