- 博客(53)
- 资源 (1)
- 问答 (2)
- 收藏
- 关注
转载 tf.layers.conv1d函数介绍
首先这个层的参数如下tf.layers.conv1d(inputs,filters,kernel_size,strides=1,padding=‘valid’,data_format=‘channels_last’,dilation_rate=1,activation=None,use_bias=True,kernel_initializer=None,bias_initializer=tf.zeros_initializer(),kernel_regularizer=None,
2020-09-26 20:16:04
1177
原创 学习率衰减的实现方法
方法一:在自定义的迭代过程中,随意设置每一次迭代的学习率甚至学习方法optimizer = SGD(learning_rate=0.2)for epoch in range(100): # get loss # change learning rate optimizer.learning_rate = 0.2 * (100-epoch)/100 # update weights方法二:利用callback回调实现lr_schedule = tf.keras.callbacks.L
2020-09-26 20:15:44
993
原创 Tensorflow我曾出现的问题、pip更新tf版本
(1)build输入层并非必须手动添加,如果没有,运行model.fit时会自动buildmodel.build(input_shape=(batch_size, X, X)) (2)
2020-09-26 20:15:16
427
原创 老外的时间序列预测示例,类似于自回归
第一步,array用tf.data.Dataset.from_tensor_slices变成可迭代的tensor,(和第一个教程不一样,他是先tf.constant转化为tensor又带入from......()) # 第二步,用.window方法将原数据扩展成应有的元素,drop_remainder用来忽略最后不整齐的 # 第三步,批处理flat_map,将长数据列分成一个个window用[]括起来。他的这个window是包括lable的 # 第四步,打乱 # 第五步,用map批处
2020-09-26 20:13:33
346
原创 如何把Datafram转化为window_dataset?
时间序列数据(df)转为window_dataset# 第1步: tf.constant()可以将numpy.arry类型转化为tensor, df.values正是np.array# 第2步: tf.data.Dataset.from_tensor_slices()是可以把数据转化为tensor的另一种形式,貌似是做成了一个迭代器?(可不可以直接从array过来)# 第3步:用这个可迭代的tensor,的window方法,按照(window_size, shift)把原始数据扩展为目标数据集应有的元
2020-09-26 20:12:42
358
原创 如何快速的知道tensorflow的某种层的输入与输出结构?
最快的学习方式是:自己手动建立一层,看一下输入输出的维度。比如:hiden = layers.LSTM(2)x = tf.constant(np.arange(45).reshape(3,5,3),dtype=tf.float32)y = hiden(x)发现,LSTM的输入一定是3维的,分别是(Batch, 时间戳,属性维度)。输出一定是2维的,分别是(Batch, lstm_units)。所以,LSTM可以直接连接Dense层。但是Conve层必须先flat才能Dense层。self.fl
2020-09-01 13:48:19
586
原创 给小白入门看:tensorflow输入维度
输入全连接层,一定要把tensor调整为二维的,比如[None, 512].输入LSTM之前,要把维度调整为三维的,比如[None, 20,60],None是batch_size随意的意思,20代表循环输入20个时间戳,60代表每个时间戳有60个特征属性。...
2020-08-31 19:43:12
2123
原创 关于深度学习模型搭建的思考
在时间序列任务中(单变量自回归拟合),我首先尝试了多层LSTM模型,常遇到训练好的模型在测试集只能输出常数(或波动非常小),同时训练集有一个很好的拟合,但是有时在训练集也拟合不好,有一段总是输出常数。我用了简单任务和复杂任务数据测试,都会出现以上情况。既不总是过拟合,也不总是欠拟合,这种模型效果非常不稳定。在测试[0,1,2,3,4][5]任务时,在单隐层(全连接层)时,huber损失函数,很容易就达到了完美的效果。但是只要加入LSTM层,即使加入多层LSTM和Dense,都会出现欠拟合,或者过拟合。看
2020-08-30 17:34:36
226
转载 Python3检验pdf文件是否有效
【基本原理】利用PyPDF2的PdfFileReader模块打开pdf文件,如果不抛异常,就认为此pdf文件有效。有时打开并不抛出异常,但是有这种警告:UserWarning: startxref on same line as offset [pdf.py:1680]。这种情况pdf多半也是坏的,可进一步通过页数判断。但walker在测试中发现,对于正常pdf文件,进一步通过页数判断时有时会抛出异常。【情形一】pdf文件在磁盘上。import tracebackfrom PyPDF2 impor
2020-08-26 12:01:13
1184
原创 TensorFlow2.0如何轻松地输出中间层结果
检查模型——各层权重、中间层输出也许你也遇到过训练好的模型输出了一些奇怪的结果,比如总是输出不变的常数。排错到怀疑人生,可能都发现不了问题究竟出在哪。这就需要你逐层分析输出结果,看下有没有诡异的地方。方法如下: layer1 = tf.keras.layers.Dense(30) layer2 = tf.keras.layers.Dense(50) ... layer5 = tf.keras.layers.Dense(30) model = tf.keras.models.Sequenti
2020-08-25 14:06:39
4116
4
原创 Tensorflow2.0一种灵活切割训练集验证集测试集的方式
神经网络进行训练之前,通常要将数据集分为train_db, test_db, val_db,一般数据集(numpy.ndarray 格式的 x和y对应起来的)是比较好切割的,可以用以下前三种方法,对于时间序列数据的处理,重点看最后一种方法:方法一:借用三方sklearn库train_test_split只能切2份,所以我们需要切2次:from sklearn.model_selection import train_test_splitx_train, x_test, y_train, y_tes
2020-08-25 11:42:47
10690
3
原创 matplotlyb画图的几个案例
一、最简单的曲线(x,y),有标题、图例、轴标签、线型和颜色import matplotlib.pyplot as plta = [1, 2, 3, 4] # y 是 a的值,x是各个元素的索引b = [5, 6, 7, 8]plt.figure(figsize=(16,6))plt.plot(a, b, 'r--', label = 'aa')plt.xlabel('this is x')plt.ylabel('this is y')plt.title('this is a demo')
2020-08-23 19:14:57
187
原创 深度学习Tensorflow之预测Stock价格的实例
import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport tensorflow as tffrom tensorflow.keras import models,layers,losses,metrics,callbacksimport seaborn as snsimport timeimport osos.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'gpus
2020-08-19 14:58:34
304
回调函数Callbacks - Keras中文文档.zip
2020-08-19
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅