- 博客(6)
- 收藏
- 关注
原创 Tensorflow实现多层感知机Multi-layer Preceptron
# coding:utf-8'''使用Tensorflow训练神经网络的4个步骤①定义算法公式 即神经网络的forward时的计算②定义损失函数和选择优化器来优化loss③训练步骤④对模型进行准确率评测隐含层:解决XOR问题神经网络的隐藏层越多就可以对原特征进行越抽象的变换 模型的拟合能力越强Tensorflow实现多层感知机Multi-layer Preceptron''
2017-12-20 13:58:51 527
原创 Tensorflow实现自编码器
#encoding: utf-8'''AutoEncoder:使用自身的高阶编码器来提取特征,自编码器其实也是一种神经网络,它的输入和输出是一致的它借助稀疏编码的思想,目标是使用稀疏的一些高阶特征重新组合来重构自己。特点:①期望输入/输出一致;②用高阶特征来重构自己,不是复制像素点'''import numpy as np import sklearn.preprocessing
2017-12-19 20:54:41 288
原创 Tensorflow-googlenetV3.py
# coding: UTF-8import tensorflow as tf import time import mathfrom datetime import datetimeslim = tf.contrib.slimtrunc_normal = lambda stddev: tf.truncated_normal_initializer(0.0,stddev)# In
2017-12-13 21:14:47 704 1
原创 Image-rotate-brightness-blur
import osimport globfrom PIL import Imageimport cv2# files = glob.glob('./*/*.png')# for f in files:# cv2.imwrite(os.path.splitext(f)[0] + '.jpg', cv2.imread(f))# os.remove(f)# left-
2017-12-13 21:08:08 219
原创 Tensorflow实现Softmax Regression识别手写数字
实现代码:#coding:utf-8# load MNIST datasetsfrom tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot = True)# View the information of MNIST
2017-12-06 19:27:14 267
转载 学习率 Learning Rate
转载自:https://www.cnblogs.com/keguo/p/6244253.html本文从梯度学习算法的角度中看学习率对于学习算法性能的影响,以及介绍如何调整学习率的一般经验和技巧。在机器学习中,监督式学习(Supervised Learning)通过定义一个模型,并根据训练集上的数据估计最优参数。梯度下降法(Gradient Descent)是一个广泛被用来最小化模型
2017-12-04 10:10:33 1701
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人