![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
tensorflow
zeroQiaoba
爱生活爱岚岚
展开
-
1392. Longest Happy Prefix (KMP算法)
这就是kmp计算步骤中的第一步骤——计算最长前后串,记录一下思路,网上的教程很多,还是挺复杂的。这是我的思路整理。首先,本质上是一个dp问题。假设dp[i]表示字符串中,[0,i]区间内的最长前后串。主要分解成如下步骤,如果dp[i-1]=K,那么说明,[0,i-1]中,前K个和后K个一定是相同的。如果在上图中j位置s[j]==s[i],那么dp[i+1]就可以变成K+1如果不相同,假...原创 2020-03-24 19:53:49 · 185 阅读 · 0 评论 -
Tensorflow 回归问题
转载自传送门,看的还是可以的,代码结构优美。下面增加一些自己的理解和注释。这个代码和tensorflow分类问题代码相似,就是一个是用最后状态的输出。一个是用所有时刻的输出。# View more python learning tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https://www.youtu转载 2017-04-27 18:59:55 · 1499 阅读 · 0 评论 -
Tensorflow session
传送门 Tensorflow定义完图结构,并不会直接计算,需要利用session才能激活。一般直接利用第一种session机制就足够了。# View more python learning tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https://www.youtube.com/channel/UCd转载 2017-04-24 09:22:08 · 609 阅读 · 0 评论 -
Tensorflow variable
传送门 心得:只要定义了变量,就要对变量初始化。init = tf.global_variables_initializer()又看见了tensorflow的两个操作,add和assign,分别为加法和变量赋值操作。可以定义变量的名字state = tf.Variable(0, name='counter')session run一个操作会对变量值更新,run一个变量会返回变量当前的结果。 ru转载 2017-04-24 09:50:43 · 703 阅读 · 0 评论 -
placeholder
placeholder作用就是接受外部传来的数据,相当于一个占位符。 变量值不再是直接在图中tensorflow图中定义,而是给出一个占位符,在session中再给值。 palceholder# View more python learning tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https:转载 2017-04-24 11:13:10 · 561 阅读 · 0 评论 -
addLayer
add_layer()就是一个很简单的前向传播网络。依旧是描述一个tenserflow图,并没有开始session run操作。 add_layer()# View more python learning tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https://www.youtube.com/cha转载 2017-04-24 12:13:20 · 1907 阅读 · 0 评论 -
tensroflow建立一个完整的单层网络
传送门 学习这一部分代码还是收获了很多的,虽然还是有的地方不是很理解,但是之后看的代码多了就会理解了。首先,写一下我的心得体会。 1、add_layer()函数是作者定义的函数,很方便,可以参考 2、变量定义的方式也很厉害,是numpy部分内容。可以定义x_data.shape大小的正态分布noise。x_data = np.linspace(-1,1,300)[:, np.newaxis]转载 2017-04-24 18:49:15 · 661 阅读 · 0 评论 -
Classification
传送门 这是一个分类问题,首先需要加载mnist数据集合。tensorflow提供了函数可以用于下载和读取数据from tensorflow.examples.tutorials.mnist import input_data# number 1 to 10 datamnist = input_data.read_data_sets('MNIST_data', one_hot=True)由于集转载 2017-04-25 20:03:29 · 520 阅读 · 0 评论 -
Tensorflow Code2
参考资料1,莫烦的tensorflow讲解传送门,以下是对他讲解的总结。 代码2# View more python tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https://www.youtube.com/channel/UCdyjiB5H8Pu7aDTNVXTTpcg# Youku video t转载 2017-04-24 09:12:05 · 574 阅读 · 0 评论 -
Tensorflow CNN(两层卷积+全连接+softmax)
由于卷积用于分类的方法非常固定,因此直接贴上源码以及链接,有需要的直接稍加修改就可以了。 传送门 简单写一下心得体会 卷积层+pooling层#定义变量,初始化为截断正态分布的变量def weight_variable(shape): initial = tf.truncated_normal(shape, stddev=0.1) return tf.Variable(ini转载 2017-04-26 11:15:43 · 11019 阅读 · 0 评论 -
Tensorflow saver(save weight)
saver用于变量的读取操作,需要注意的是,在变量存储时,需要事先建立好一个文件夹。存储代码并不会自动新建文件夹,需要你人为手动建立,不然会报错。主要保存代码为,建立一个saver,保存sesssaver = tf.train.Saver()with tf.Session() as sess: sess.run(init) save_path = saver.save(sess, "转载 2017-04-26 14:10:04 · 2117 阅读 · 0 评论 -
Tensorflow LSTM分类问题
传送门第一个看不懂的代码,好尴尬呀,看来学习的东西还有好多好多呢。 还是先老老实实记录一些当前能看懂的部分。 传送门这篇blog对于tensroflow下的RNN实现讲的挺好的完整代码如下:# View more python learning tutorial on my Youtube and Youku channel!!!# Youtube video tutorial: https:/转载 2017-04-26 22:41:21 · 9004 阅读 · 0 评论 -
tensorflow总结帖
变量定义:#随机产生100个数,类型为float32x_data = np.random.rand(100).astype(np.float32)y_data = x_data*0.1 + 0.3x_data = np.linspace(-1,1,300)[:, np.newaxis]noise = np.random.normal(0, 0.05, x_data.shape)y_data原创 2017-04-24 19:55:50 · 524 阅读 · 0 评论 -
Autoencoder
莫老师传送门autoencoder代码很简单,就是多层的layer就行了。#给每一个变量起了个名字,调用的时候可以直接weights['decoder_h1']调用某个变量weights = { 'encoder_h1': tf.Variable(tf.random_normal([n_input, n_hidden_1])), 'encoder_h2': tf.Variable(转载 2017-04-30 22:08:27 · 483 阅读 · 0 评论 -
Tensorflow BN
莫老师传送门 我把plot删除了,计算cost,发现增加bn后,cost少了很多。 主要复制batch的代码,看的不大懂,比如每个中间的ema 都被存储了吗? 每经过一个层就知道应该用哪个ema对应的权值更新。可能每个ema的名字不一样,他是通过名字识别的。 train和test时还不大一样,train要用计算得到的var更新原始var,但是test时只用取得它的原始保存的var if n转载 2017-04-30 21:50:17 · 2352 阅读 · 0 评论