- 博客(8)
- 资源 (4)
- 收藏
- 关注
原创 两层隐藏网络剖析(上一篇讲到用已有训练好的网络参数做分类,这一篇详细剖析下这两层的网络)
# coding: utf-8import sys, ossys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定import numpy as npfrom common.layers import *from common.gradient import numerical_gradient ##计算数值微分,后续会讲到先拿来主义from co...
2020-02-24 00:07:09 461
原创 一个两隐藏层网络详解(看会了相当于掌握了最基础的神级网络)
# coding: utf-8import sys, ossys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定import numpy as npimport picklefrom dataset.mnist import load_mnist ##导入mnist手写体识别from common.functions import sigmoid...
2020-02-17 23:31:05 1168
转载 学习笔记(2):AI训练营-中文OCR项目实战-Day2巩固加深——学习文本检测方法-1
零基础3天入门AI,通过实战项目演练,掌握人工智能文字识别技术;CSDN大咖名师带队,3天直播互动,16项核心技术点贯穿,系统学习AI视觉领域知识,增长职业技能和项目经验...
2021-01-05 15:04:20 168
转载 Jetson Nano – UART
There is a UART on the J41 GPIO Header of the NVIDIA Jetson Nano Developer Kit. Useful when you need a little bit of extra serial connectivity action. Looky here:BackgroundThere are two UARTs o...
2020-03-10 23:36:33 2294
原创 关于梯度计算(实际上用数值微分近似计算)
# coding: utf-8import numpy as npimport matplotlib.pylab as plt##数值微分def numerical_diff(f, x): h = 1e-4 # 0.0001 return (f(x+h) - f(x-h)) / (2*h)def function_1(x): return 0.01*x**...
2020-02-18 23:35:49 1302
原创 softmax赏析
def softmax(x): if x.ndim == 2: x = x.T x = x - np.max(x, axis=0) y = np.exp(x) / np.sum(np.exp(x), axis=0) return y.T x = x - np.max(x) # 溢出对策 return np...
2020-02-17 23:45:30 339
原创 sigmoid relu 激活函数
本人第一篇csdn博客,对手动敲一遍基础激活函数加深下理解import numpy as npimport matplotlib.pyliab as pltdef sigmoid(x): return 1/(1 + np.exp(x)) ##注意不要写写成 x/(1 + np.exp(x))x = np.arange(-10, 10, 0.1)y = sigmoid(...
2020-02-17 20:44:16 210
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人