深度学习
weixin_45405128
stay hungry, stay foolish.
展开
-
Convolutional Neural Networks: One Layer of a Convolutional Network
原创 2020-02-01 16:59:51 · 105 阅读 · 0 评论 -
Convolutional Neural Networks: 2D image
原创 2020-02-01 12:51:57 · 106 阅读 · 0 评论 -
bias and variance with mismatched data distributions
原创 2020-01-30 14:51:58 · 103 阅读 · 0 评论 -
LSTM
https://pytorch.org/docs/stable/_modules/torch/nn/modules/rnn.html#LSTM原创 2019-11-24 18:41:20 · 97 阅读 · 0 评论 -
Early Stopping
原创 2019-11-22 23:27:53 · 188 阅读 · 0 评论 -
逻辑回归梯度下降
原创 2019-11-22 13:36:08 · 58 阅读 · 0 评论 -
Install PyTorch in windows (anaconda)
https://pytorch.org/在Pytorch的主页选择自己所要安装的版本,直接在anaconda prompt中输入命令即可。“conda install pytorch torchvision cudatoolkit=10.1 -c pytorch”原创 2019-10-14 17:26:35 · 137 阅读 · 0 评论 -
Planar_data_classification_with_one hidden_layer (具有一个隐藏层的平面数据分类, 神经网络/深度学习)
import numpy as npimport matplotlib.pyplot as pltfrom testCases_v2 import *import sklearnimport sklearn.datasetsimport sklearn.linear_modelfrom planar_utils import plot_decision_boundary, sigmo...原创 2019-10-10 17:04:18 · 179 阅读 · 0 评论 -
a Neural Network with a single hidden layer (具有单个隐藏层的神经网络)
(you can use eithernp.multiply()and thennp.sum()or directlynp.dot()).Note that if you usenp.multiplyfollowed bynp.sumthe end result will be a typefloat, whereas if you usenp.dot, the r...原创 2019-10-10 14:55:10 · 408 阅读 · 0 评论 -
激活函数的导数
深度学习常用的几种激活函数:sigmoid函数 tanh函数 relu函数和leaky relu: max(0,x), max(0.01x, x)激活函数的导数:1. sigmoid函数:(应用范围较小,常用于binary classification)2.tanh函数 :(性能由于sigmoid)3.relu函数和leaky relu(收敛速度快,计算快,应用...原创 2019-10-08 19:59:24 · 410 阅读 · 0 评论 -
逻辑回归+神经网络 (识别猫的图像,computer vision)
import numpy as npimport matplotlib.pyplot as pltimport h5pyimport scipyfrom PIL import Imagefrom scipy import ndimagefrom lr_utils import load_dataset%matplotlib inlineProblem Statement: Y...原创 2019-10-08 16:17:56 · 399 阅读 · 0 评论 -
Logistic Regression cost function
原创 2019-09-22 13:24:08 · 113 阅读 · 0 评论