模型设计总结(2)

该博客介绍了如何从Tushare获取股票历史数据,并将其划分为训练集和测试集。数据预处理包括10天数据分组、归一化处理,以防止梯度消失。接着,博客探讨了CNN模型的构建,特别是1x1卷积层的应用,用于特征提取和非线性激励,以及池层在降低维度和减少训练成本上的作用。整个过程旨在预测股票收盘价。
摘要由CSDN通过智能技术生成

1)输入数据处理。

Tushare上爬取1991.7.12020.8.31 7127条数据,然后划分成6627条 和500条分别组成训练集和测试集。具体时间跨度为10天,每天的数据有8个特征,分别为收盘价,开盘价,最高点位,最低点位,昨日收盘点,涨跌点,涨跌幅(%),成交量(手)成交额(千元),10天的数据编为一组,即使用前10天的数据预测第11天的收盘价

本层输出格式为(None108None为组的个数不限制

并且对爬取的数据进行归一化处理,使其投影到(0,1)的范围内,目的是改变特征数据分布,让反向传播更加容易,

防止越到后面的特征数据分布越在0附近,这会导致梯度消失,网络收敛。

scaler = MinMaxScaler(feature_range=(0, 1))

scaler.fit(list_data1)

list_data1 = scaler.transform(list_data1)

2CNN主要由两部分组成:卷积层和池层。 卷积层计算:输入数据成功通过卷积层、池层在CNN中,对输入数据进行特征提取获得输出值。每个卷积层包含卷积核的完备性,其计算公式如公式所示:

L代表卷积层的输出 tanh是激励函数,x是输入数据,k是卷积核的权重,b是卷积核的偏移

卷积层的参数为   filters=32,  # 卷积层神经元(卷积核)数目, kernel_size=1,     # 感受野大小

activation=tf.nn.tanhinput_shape =(None,10,8)

通过1×1卷积操作提取出输入张量的重要特征,对数据进行升维操作。函数tanh,加入非线性激励。 1*1的卷积在前一层的学习表示上添加了非线性激励,提升网络的表达能力

本层输出格式为(None10,   32

在卷积运算之后,卷积层提取出数据的特征,但是提取出来的特征维数很高,所以为了解决这一问题,降低培训成本,在网络中,在卷积后加入一个池层图层以减少特征尺寸。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值