机器学习之路-tensorflow
cjopengler
这个作者很懒,什么都没留下…
展开
-
第一课 Tensorflow基本概念
基本概念tensorflow是基于图的计算,也就是说,tensorflow是先有图,然后,才开始计算。那么,所以在建立变量和操作的时候,仅仅是图的构成,如果不运行是无法知道具体数据的.import tensorflow as tfimport numpy as npfrom IPython.display import display, HTMLnp_matrix = np.zeros((3,原创 2017-08-15 10:59:20 · 837 阅读 · 0 评论 -
第十一课 tensorflow RNN原理及解析
RNN原理解析RNN的一层结构图如下:W: state 权重U: 输入权重V: 输出权重xt: t个step的输入ht: rnn cell 隐层, 也有的叫st (状态层)ot: 最终的输出yt: 经过soft max之后的分类结果数学关系: 关于维度: * ht维度: 是隐层的数量,也是自定义的, shape=[hn✖️1] * W维度: shape=[hn, hn],才原创 2017-10-13 15:56:42 · 1293 阅读 · 0 评论 -
tensorflow 特征工程中的combiner
combinercombiner的行为tf.contrib.layers.sparse_column_with_hash_bucket 的参数中有一个combiner. 他的含义是说,当产生稠密向量的时候,使用combiner与权重重重新计算权重,也就是相当于对权重的正则化。举个例子来说,feature A中,包含两个稀疏向量,分别是[0, 1, 0]和[0,0,1] 他们分别对应一个权重0.4和0原创 2017-10-11 17:32:55 · 3453 阅读 · 0 评论 -
第九课 tensorflow 特征工程: feature_column
特征工程: feature_column在使用很多模型的时候,都需要对输入的数据进行必要的特征工程处理。最典型的就是:one-hot处理,还有hash分桶等处理。为了方便处理这些特征,tensorflow提供了一些列的特征工程方法来方便使用.公共的importimport tensorflow as tffrom tensorflow.python.estimator.inputs import原创 2017-10-05 16:29:10 · 23047 阅读 · 0 评论 -
tensorflow 常见错误及解析
Tensorflow 常见错误及解析Attempting to use uninitialized value说明没有初始化变量,可以加入: sess.run(tf.global_variables_initializer()) sess.run(tf.local_variables_initializer())Table not initialized.在使用feat原创 2017-10-05 16:30:57 · 4370 阅读 · 0 评论 -
第十三课 wide&deep模型
这篇paper很简单,网上也有很多人翻译过来. 使用tensorflow自带的库,其实很简单。有些难点的地方是,关于特征工程部分的理解。请参考 第九课 tensorflow 特征工程: feature_column下面是具体的实践demo:# coding:utf-8"""wide and deep"""from framework.data_input import IDataInputf原创 2017-10-19 14:39:44 · 1447 阅读 · 0 评论 -
第十课 tensorflow 实现word2vec
精简版本,去掉了各种tsne以及vector可视化的麻烦,直接看到word2vec的训练过程对文本进行预处理也就是将每一个单词转换成一个数字序号,同时将低频词过滤掉,统一使用 UKN来代替.import collectionsimport tensorflow as tfdef pre_process(input_file_path, vocabulary_size, output_file_p原创 2017-10-10 10:37:12 · 460 阅读 · 0 评论 -
第八课 tensorflow numpy_input_fn 以及队列性质
numpy_input_fn 以及队列性质该函数的作用是从numpy的输入数据中,产生读取的featrues和labels数据。这样当我们在使用numpy的数据作为输入的时候就很方便。对于所有的input来说,都是要建立队列来进行读入,所以对于队列的处理就会比较麻烦,而numpy_input的数据将这些对队列的输入封装在一起方便了我们使用.import tensorflow as tfimport原创 2017-10-02 12:58:38 · 4376 阅读 · 0 评论 -
第十二课 tensorflow 使用RNN实现古诗自动生成
上一课中说到RNN的实现原理。这一章,一个古诗生成的demo.输入# coding:utf-8"""数据输入"""import loggingimport collectionsimport jsonimport numpy as npclass PoemInput(object): def __init__(self, poem_file_path, batch_size):原创 2017-10-18 15:57:18 · 3658 阅读 · 5 评论 -
第七课 Tensorflow Cifar10 Eval
Cifar10的评估# coding:utf-8"""评估准确率步骤就是:1. 载入测试数据集2. 使用先前构建的模型, 对输入的数据产出预测结果3. 计算预测结果的正确比率4. 载入模型计算的参数,运行模型"""from abc import ABCMetafrom abc import abstractmethodimport tensorflow as tfimport m原创 2017-09-12 19:53:40 · 601 阅读 · 0 评论 -
第六课 Tensorflow Cifar10 CNN 卷积神经网络
对于train来说,基本就是几个步骤:读取数据构建训练网络训练# coding:utf-8"""训练"""from abc import ABCMetafrom abc import abstractmethodclass ITrain(object): __metaclass__ = ABCMeta @abstractmethod def train(self原创 2017-09-12 19:51:41 · 1710 阅读 · 0 评论 -
第五课 Tensorflow TFRecord读取数据
虽然,可以使用常用的类型,但是使用tfrecord更好。protobuf的格式传输更快结构统一。相当于屏蔽了底层的数据结构。import tensorflow as tfimport numpy as npfrom IPython.display import display, HTMLimport matplotlib.pyplot as pltimport pandas as pd原创 2017-08-29 11:14:35 · 1441 阅读 · 0 评论 -
第四课 Tensorflow并发读取数据
并发读取数据能够大大加速数据的读取速度。import tensorflow as tfimport numpy as npfrom IPython.display import display, HTMLimport matplotlib.pyplot as pltplt.rcParams["figure.figsize"] = (20,10)filenames = tf.train.matc原创 2017-08-29 11:13:01 · 891 阅读 · 0 评论 -
第三课 Tensorflow实现人工神经网络
Tesnroflow人工神经网络import numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials import mnistfrom IPython.display import display, HTMLimport matplotlib.pyplot as plt读取数据集mnist_data = mn原创 2017-08-27 17:12:05 · 1347 阅读 · 0 评论 -
第二课 Tensorflow实现softmax
使用tensorflow自带的手写数据集来完成按照像素的分类。使用softmax进行多分类.import numpy as npimport tensorflow as tffrom tensorflow.examples.tutorials import mnistfrom IPython.display import display, HTMLimport matplotlib.pypl原创 2017-08-18 14:51:11 · 1118 阅读 · 0 评论 -
tensorflow 调试技巧汇总
learning rate当发现loss下降,然后又开始上升。很可能是learning rate 到后面太大导致的缘故。 所以应该使用带有衰减效果的learning rate.session.run(tf.assign(learning_rate, 0.002 * (0.97 ** (step // decay_steps))))原创 2017-10-18 15:43:47 · 1466 阅读 · 0 评论