- 博客(10)
- 资源 (1)
- 收藏
- 关注
原创 tensorflow中的tf.nn.bidirectional_dynamic_rnn
Tensorflow中实现双向RNNstf.contrib.rnn.bidirectional_dynamic_rnn()在tensorflow中已经提供了双向RNNs的接口,使用tf.contrib.rnn.bidirectional_dynamic_rnn()这个函数,就可以很方便的构建双向RNN网络。首先看下接口的一些参数bidirectional_dynamic_rnn(...
2019-07-05 08:39:36 707
转载 iterable和iterator的区别
首先从字面意思来解释Iterable和Iterator的区别Iterable:由英文的命名规则知道,后缀是able的意思就是可怎么样的,因此iterable就是可迭代的意思。Iterator:由英文的命名规则知道,后缀是or或者er的都是指代名词,所以iterator的意思是迭代器。这两个概念之间有一个包含与被包含的关系,如果一个对象是迭代器,那么这个对象肯定是可迭代的;但是反过来,如果一个...
2019-06-19 15:45:21 4054
原创 tf.nn.dynamic_rnn()
函数原型tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=N...
2019-05-24 20:47:12 411
原创 tf.concat()
tf.concat([tensor1, tensor2, tensor3,...], axis)表示在第0维度上进行拼接;表示在第0维度上进行拼接。import tensorflow as tft1=tf.constant([1,2,3])t2=tf.constant([4,5,6])t3=tf.concat([t1, t2], 0) print(t3)with tf.Se...
2019-05-22 08:40:04 763
原创 交叉熵在同分布下最小证明
相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量。定义设是随机变量上的两个概率分布,则在离散和连续随机变量的情形下,相对熵的定义分别为 :...
2019-05-22 08:27:28 1205 1
原创 most_common()函数源码解读
Counter类中的most_common()函数parameter(参数): 传进去一个可选参数n(代表获取数量最多的前n个元素,如果不传参数,代表返回所有结果)return(返回): 返回一个列表(里面的元素是一个元组,元组第0位是被计数的具体元素,元组的第1位是出现的次数,如:[('a',1),[('b'),2],[('c',3)]])当多个元素计数值相同...
2019-05-15 20:00:47 7060
原创 LSTM实现对sin函数的预测
LSTM实现对sin函数的预测import tensorflow as tfimport numpy as npfrom matplotlib import pyplot as plthidden_size=30num_layer=2time_stept=10training_stept=10000batch_size=32train_example=10000test_...
2019-04-01 10:33:09 728 1
原创 支持向量机代码
本篇博客是对支持向量机的简单实现,数据集到我博客自行下载。建立辅助函数命名为:支持向量机import numpy as npimport randomdef loadDataSet(filename): dataMat=[] labelMat=[] fr=open(filename) for line in fr.readlines(): l...
2019-03-19 12:31:20 1443
原创 神经网络BP算法
BP算法程序,数据到我博客下载:import randomimport pandas as pdimport numpy as npimport csvimport mathfrom numpy import randomdef seed(d,q,l): # d代输入层神经元个数,q代表隐层神经元的个数,l代表输出层元素的个数,该函数用来初始化权重和阈值v=np.array([[r...
2018-12-09 12:04:36 201
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人