Victor Blog Space

学习在于点点滴滴的积累,乐享其中,为此不疲。

神经网络 从ReLU到Sinc,26种激活函数可视化

转自:https://mp.weixin.qq.com/s/7DgiXCNBS5vb07WIKTFYRQ 在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎...

2018-07-03 23:04:16

阅读数:26

评论数:0

怎样构建深度学习模型?六步走,时刻小心过拟合 | 入门指南

想要训练个深度神经网络,也准备好了可以直接用的数据,要从哪里开始上手? 来自美国的Harry Khanna,精心编织了一套六步法。大家可以瞻仰一下,然后决定要不要行动。 整个过程中,过拟合的问题时时刻刻都要注意。 1. 选个损失函数 选择怎样的损失函数,取决于需要解决怎样的问题。 如果是...

2018-07-03 21:02:31

阅读数:51

评论数:0

InternalError: Failed to create session.

今天在AWS上运行我的神经网络代码,然后直接在Conv2D的方法出报错了,然后google了下,在stackoverflow上有人说: 直接在命令行键入: export CUDA_VISIBLE_DEVICES='' 然后重新运行代码, 就好了。 他们猜测,可能是GPU内容不够了。...

2018-07-03 14:53:50

阅读数:533

评论数:0

深度学习 之八 【循环神经网络 RNN】

1.循环神经网络 Recurrent Neural Network 循环神经网络,一般用在 语音识别,例如:Google Assistant, Apple Siri, Amazon Alexa 股票涨跌,随着时间的变化股票的涨跌 自然语言处理(NLP), 机器翻译, 手势识别 这么多...

2018-06-10 20:21:04

阅读数:35

评论数:0

深度学习 之四 【TensorFlow 两层神经网络】

在上一篇博客中,我们实现了一层神经网络,现在,我们将通过TensorFlow实现两层神经网络;添加一个隐藏层到网络,让它建模更复杂的功能。而且隐藏层上使用非线性激活函数可以模拟非线性函数。 使用Relu在隐藏层作为激活函数,形成多层网络,如下图: 那么,这个隐藏层激活函数,我们就使用 Re...

2018-06-05 20:10:30

阅读数:112

评论数:1

深度学习 之三 【TensorFlow 一层神经网络 实战】

import hashlib import os import pickle from urllib.request import urlretrieve import numpy as np from PIL import Image from sklearn.model_selection ...

2018-06-05 12:34:31

阅读数:50

评论数:0

深度学习 之一 【神经网络介绍】

一般公式 一般的二维线性分类预测公式: y hat = W * x + b 一般的三维线性分类预测公式: y hat = W1 * x1 + W2 * x2 + W3 * x3 + b 如果是n维线性分类预测公式: y hat = W1 * x1 + W2 * x2 + ... + W...

2018-05-21 17:48:53

阅读数:125

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭