深度学习系列
喵喵love
这个作者很懒,什么都没留下…
展开
-
常用激活函数(Sigmiod、Tanh、Softmax、ReLU、elu、LReLU、Softplus)函数表达式、特点、图像绘制(代码)---已解决
楼主最近在研究激活函数,索性将常用的激活函数进行了简单的整理,方便以后翻看,也希望能帮到你。1、sigmoid函数函数表达式:f(x) = 1/(1+e^-x)函数特点:优点:1.输出[0,1]之间;2.连续函数,方便求导。缺点:1.容易产生梯度消失;2.输出不是以零为中心;3.大量运算时相当耗时(由于是幂函数)。函数定义:def sigmoid(x): y = 1/(1+np.exp(-x)) return y2、tanh函数函数表达式:f(x) = (e.原创 2021-01-02 22:00:49 · 5080 阅读 · 0 评论 -
将tf.Tensor与np.array相互转换---(已解决)
之前在使用tensorflow时遇到将Tensor和ndarry形式相互转换的坑,在此记录一下:1.Tensor转化为ndarry首先先输入一个Tensor格式的矩阵:z = tf.random_normal([2, 3])print(z)输出显示为Tensor格式:Tensor("random_normal_2:0", shape=(2, 3), dtype=float32)要将以上Tensor格式的矩阵转换为ndarry形式,列举以下两种方法:(都是使用 tf.Session() .原创 2020-05-23 20:54:15 · 9159 阅读 · 0 评论 -
Keras搭建常用深度学习模型LeNet-5\AlexNet\ZFNet\VGGNet\GoogleNet\Resnet----(已解决包含代码和论文)
找了好多大神的代码和总结的论文,先在此谢过啦,总结记录一下,也希望能帮到你和以后的我。LeNet-5:(论文地址)#!/usr/bin/env python# -*- coding: utf-8 -*-# Author:'ZhangML'# Time:2020/04/15 05:23from keras.models import Sequentialfrom keras.layers import Dense,Flattenfrom keras.layers.convolutiona原创 2020-05-08 21:34:39 · 340 阅读 · 0 评论