自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 资源 (1)
  • 收藏
  • 关注

原创 tensorflow 学习笔记

Tensorflow 搭建自己的神经网络 (莫烦 Python 教程)https://www.bilibili.com/video/av16001891?from=search&seid=15441048423060296102tensorflow学习笔记(1):常量(tf.constant)与变量(tf.Varialbe)https://blog.csdn.net/yjk13...

2018-11-06 20:57:41 83

原创 numpy中文手册

网址:https://www.numpy.org.cn/目录导入模块:向量循环移动随机数生成随机数生成—正态分布随机数生成—指定分布概率矩阵合并(矩阵连接)矩阵转置矩阵相乘计算协方差矩阵计算矩阵特征根和特征向量 导入模块:import numpy as np向量循环移动把向量x向右移动move_step步numpy.rol...

2018-11-06 19:42:04 9406 1

原创 Pycharm 的使用

Pycharm 运行py文件https://blog.csdn.net/Kol_mogorov/article/details/79938356Pycharm 安装模块https://www.cnblogs.com/sincoolvip/p/5966696.html在pycharm里面对文件夹或者文件进行重命名的一种方法https://blog.csdn.net/york199...

2018-11-05 12:42:02 155

原创 pycharm下载+汉化

官网下载:https://www.jetbrains.com/pycharm/然后点download now二选一,专业版收费(可以破解)社区版免费(功能少了WEB开发和数据库支持)我个人选了专业版,大小200M左右破解包:https://www.cnblogs.com/linkenpark/p/9251867.html汉化包下载:http://www.ddooo.com/...

2018-11-05 10:36:56 215

转载 Google Drive/Docs/Presentation 的下载

转自:http://www.cnblogs.com/mahun/p/4168633.html 作者:梦中的天堂Google Drive/Docs/Presentation 的下载一、Google DriveGoogle Drive 里并不提供创建直接下载链接的选项,但是可以通过小小的更改链接形式就能把分享的内容保存到本地。例如,一份通过 Google Drive 分享的文件链接形式为:...

2018-12-26 23:58:06 549 1

翻译 TensorFlow and deep learning,without a PHD 第13章 中文

 批量标准化batch normalisation是一种很有前途的新的正则化技术。它解决了什么问题?让我们来看看数据集可能具有的典型问题。

2018-12-26 23:47:23 134

翻译 TensorFlow and deep learning,without a PHD 第12章 中文

13。实验室:99%的挑战确定神经网络大小的一个好方法是:首先实现一个小型的,有点过于受限的神经网络,然后渐渐给它更多的自由度,并添加dropout,以确保它不会过拟合。针对您的问题,这样做最终能得到一个相当优秀的网络。例如,我们在第一个卷积层中仅使用了4个卷积核。如果您能认识到:这些 卷积核 的权重 在训练期间会进化为一个个不同的形状识别器,您或许会很直觉地发现问题:4个...

2018-12-26 20:33:52 130

翻译 TensorFlow and deep learning,without a PHD 第11章 中文

 实验:建立一个卷积网络为了将代码转换为卷积模型,我们需要为卷积层定义适当的权重张量,然后将卷积层添加到模型中。我们已经知道,卷积层需要如下形状的权重张量。以下是TensorFlow的初始化语法:W = tf.Variable(tf.truncated_normal([4, 4, 3, 2], stddev=0.1))B = tf.Variable(tf.ones([2...

2018-12-15 10:48:03 115

翻译 TensorFlow and deep learning,without a PHD 第10章 中文

10.理论:卷积神经网络在卷积网络的卷积层中,一个“神经元”的输出值如何计算?首先需要在图像的小区域上做上面的像素的加权和。然后,加权和通过添加偏置b并通过一个激活函数来得到神经元的输出。卷积神经网络和之前的网络最大的区别在于:每个神经元会重复使用相同的权重,而在之前看到的完全连接的网络中,每个神经元都有自己的权重。在上面的gif图中,您可以看到,通过在图像的两个方向(...

2018-12-07 10:49:03 135

转载 流形学习

流形学习是一种非线性降维方法。其算法基于的思想是:许多数据集的维度过高只是由人为导致的。1. 介绍高维数据集会非常难以可视化。虽然可以绘制两维或三维的数据来显示数据的固有结构,但与之等效的高维图不太直观。为了帮助数据集结构的可视化,必须以某种方式降低维度。通过对数据的随机投影来实现降维是最简单的方法。虽然这样做能实现数据结构一定程度的可视化,但随机选择投影仍有许多有待改...

2018-12-05 15:45:40 2056

翻译 核主成分分析—Kernel Principal Component Analysis(KPCA)

摘要:一种新的非线性“主成分分析(PCA)”方法被提出了。通过对核函数的积分,利用非线性映射,我们可以有效地计算与输入空间相关的高维特征空间中的主成分。例如,在图像中所有可能的d个像素的空间。我们给出了该方法的推导,并给出了用于模式识别的多项式特征提取的实验结果。1.介绍假设我们有一个数据集:其中,数据集的均值为0(如果均值不为0,要先对做处理,减去均值)的...

2018-12-03 17:40:22 8159 1

原创 主成分分析(PCA)与LDA

主成分分析(PCA)理论:https://www.jianshu.com/p/4528aaa6dc48http://blog.csdn.net/zhongkelee/article/details/44064401代码:# -*- coding:utf-8 -*-# 导入需要的包:import numpy as npimport matplotlib.pyplot as...

2018-12-02 15:33:17 336 1

原创 机器学习笔记

主成分分析(PCA)https://blog.csdn.net/qq_39683748/article/details/84715960   

2018-12-02 00:01:03 64

翻译 TensorFlow and deep learning,without a PHD 第9章 中文

实验:dropout(训练时废掉某些神经元),overfitting(过拟合)训练神经网络的时候,您可能会留意到:测试和训练数据的交叉熵曲线一开始的变化趋势几乎一样,两者的差距非常小。但是在几千次迭代之后,这两条曲线开始分离。(训练集的准确率留在比较高的位置,测试集的准确率却开始一点点下降了)这是因为我们的学习算法仅仅对训练数据起作用,并相应地优化了训练交叉熵。可是它从来都...

2018-11-30 22:14:32 103

翻译 TensorFlow and deep learning,without a PHD 第8章 中文

实验:学习速率衰减通过两个中间层、三个中间层或四个中间层,如果将迭代次数设为5000次或更高,那么可以获得接近98%的精度。但你会发现结果不是很稳定。这些曲线上下波动,测试集上的准确度上下波动,波动幅度约为百分之一。这意味着即使学习率为0.003,我们也走得太快了。但是,我们不能仅仅把学习率除以十,否则训练过程就变得无比漫长。一个可行的解决方案是:快速启动,并将学习...

2018-11-29 20:02:38 100

翻译 TensorFlow and deep learning,without a PHD 第7章 中文

实验:深度网络的特殊调整随着层数的增加,神经网络的训练越来越难收敛。但我们今天就会知道如何使训练能收敛。如果您看到像下面这张图的准确度变化的曲线:其实只需要做1行代码的修改,就能解决不收敛的问题。1.改用Relu激活函数sigmoid激活函数在深网络中实际上是有很大问题的。sigmoid函数会把输入压缩0到1之间的所有值,如果当你重复使用sigmoid函数,神经元的...

2018-11-29 11:12:28 356

转载 数据可视化—从SNE到t-SNE再到LargeVis

http://bindog.github.io/blog/2016/06/04/from-sne-to-tsne-to-largevis/

2018-11-28 20:03:20 400

翻译 TensorFlow and deep learning,without a PHD 第6章

实验:添加新的层为了提高识别精度,我们准备增加更多的层到神经网络。第二层的神经元将计算前一层的神经元输出的加权和,而不是计算像素的加权和。这里是一个5层完全连接的神经网络:我们将softmax函数作为最后一层的激活函数,因为这是最适合分类的。然而,在中间层,我们将使用最经典的激活函数:sigmoid函数:本节中的任务是向模型添加一两个中间层以提高其性能。////...

2018-11-25 22:52:20 220

翻译 TensorFlow and deep learning,without a PHD 第5章

实验:走进代码一层神经网络的代码已经编写好了。请打开mnist_1.0_softmax.py文件,里面有解释。(所有文件的下载链接在第一章有)本节中的任务是理解这份原始的代码,以便随后对其进行改进。您应该看到,文件中的解释和启动器代码之间只有很小的差异。它们与用于可视化的函数对应,并在注释中作为相应的标记。你可以忽略它们。mnist_1.0_softmax.py...

2018-11-23 10:45:16 107

翻译 TensorFlow and deep learning,without a PHD 第4章

理论:梯度下降现在我们的神经网络能根据输入的图像输出预测结果,我们需要想办法衡量输出的结果的好坏,也就是网络输出的预测结果和我们所知道的真实结果之间的差距。请记住,我们这个数据集中的所有图像都有真正的标签。任何距离函数都可以,普通的欧几里德距离表现都很好,但对于分类问题,要一个叫做“交叉熵”的距离更有效。“One-hot”编码意味着使用10个值的向量来表示标签“6”,所有值都是零,...

2018-11-22 22:06:10 94

翻译 TensorFlow and deep learning,without a PHD 第3章

理论:单层神经网络MNIST数据集中的手写数字是28×28像素的灰度图像。把它们分类的最简单的方法是使用28x28=784像素作为1层神经网络的输入。 神经网络中的每个“神经元”都对它的所有输入进行加权和,然后加上一个称为“偏置”的常数,再通过一些非线性激活函数来反馈结果。这里我们设计了一个有10个输出神经元的单层神经网络,因为我们要把数字分成10类(0到9)。对于分类...

2018-11-22 11:56:22 119

翻译 TensorFlow and deep learning,without a PHD 第1章 第2章

第1章在您的计算机上安装必要的软件:Python、TensorFlow和Matplotlib。所有代码都在这里:https://download.csdn.net/download/qq_39683748/10800108本教程的示例代码在tensorflow-mnist-tutorial文件夹中。文件夹包含多个文件。现在你将要打开的的是mnist_1.0_softmax.py...

2018-11-21 23:14:03 111

原创 tensorflow学习笔记(3):优化器optimizer

官方文档http://www.tensorfly.cn/tfdoc/api_docs/python/train.html1.class tf.train.Optimizer优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。你基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer, AdagradOpti...

2018-11-10 18:50:46 286

原创 tensorflow学习笔记(2):激活函数

官方解释:http://www.tensorfly.cn/tfdoc/api_docs/python/nn.htmltf.nn.relu(features, name=None)ReLU由于非负区间的梯度为常数,因此不存在梯度消失问题(Vanishing Gradient Problem),使得模型的收敛速度维持在一个稳定状态。优点: 收敛速度会比 sigmoid/tanh 快...

2018-11-09 21:32:49 341

tensorflow-without-a-phd-master

tensorflow-without-a-phd-master 汉化教程在 https://mp.csdn.net/postedit/84331936

2018-11-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除