AI圈最新深度学习量化算法!

文章摘自AAAI21译者一元

54f3e4ffa2f627608f8f9324f82de6ac.png

量化交易和投资决策是复杂的金融任务,依赖于准确的股票选择。

目前深度学习学习的策略使用于股票的问题的方案面临两个重大局限。

  • 他们不直接优化利润方面的投资目标;
  • 将每只股票视为独立于其他股票,忽略了相关股票之间的丰富信号股票价格变动。

本文基于该局限性,将股票预测重新表述为一个学习排序问题,并提出了STHAN-SR,一种用于股票选择的神经超图结构,从而定制一种新的时空注意超图网络结构,

  • 通过联合建模股票相互依赖性及其价格的时间演变,根据利润对股票进行排序。

在三个市场上进行为期六年的实验,我们发现STHAN-SR显著优于最先进的神经股票预测方法。我们通过对STHAN-SR的空间和时间组件进行烧蚀和探索性分析来验证我们的设计选择,并证明其实用性。

7e22f94b5501d76f9b05d1e533d5289d.png

目前深度学习用于股票投资的策略,存在两大问题:

1. 问题1

并不是直接对投资收益进行优化;

- 之所以出现这种差距,是因为股票预测通常是作为一项分类任务来预测股票走势(价格上涨、下跌或无重大变化)或作为一项回归任务来预测股票价格,而不是选择预期利润最大的股票 。

- 但是高的预测性能并不总是导致股票的最有利可图的选择。此类分类和回归优化的目的是为了提高价格变动的准确性或最小化预测股票收益的误差,而不一定是为了直接获得利润。

- 这一差距暗示了优化预测性能和优化股票选择以实现利润最大化之间的差距,并引导我们思考股票选择的新。

  • 0
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 将遗传算法和深度学习应用于贪吃蛇游戏的训练,可以通过以下步骤实现。 首先,定义贪吃蛇游戏的环境。将游戏区域划分为一个二维网格,并设定贪吃蛇的起始位置和初始长度。同时,定义游戏的规则,如蛇碰壁或咬到自己身体时游戏结束,并设定游戏得分的计算方式。 接下来,使用遗传算法来生成初始的蛇咬方式。遗传算法的基本思想是通过模拟生物进化的过程,不断优化蛇的移动策略,直至找到最优解。通过随机生成一些初始的蛇咬方式(染色体),并根据预先设定的适应度函数评估每个染色体的表现,选择表现较好的个体进行交叉和变异,生成下一代染色体。重复这个过程,直到找到较优的染色体。 接下来,将选定的染色体作为输入数据,通过深度学习模型来构建蛇的智能行为策略。可以使用卷积神经网络(CNN)或循环神经网络(RNN)等适合处理空间和时间序列数据的深度学习模型。将游戏区域和蛇当前状态作为输入,输出蛇的下一步移动方向。使用标注好的训练数据,通过反向传播算法来调整网络参数,不断优化模型的预测能力。 最后,在训练完成的AI模型的指导下,进行贪吃蛇游戏的实时演示和验证。将AI模型的输出与游戏环境进行交互,实现蛇的智能移动。根据游戏结束时的得分来评估AI模型的表现,可根据需要对模型进行进一步调优或重新训练。 综上所述,通过使用遗传算法和深度学习来训练AI玩贪吃蛇游戏,可以提升蛇的智能移动策略,使其在更复杂的游戏环境中取得更高的得分。同时,这种方法在训练过程中也能够不断优化AI模型的学习能力和预测准确性。 ### 回答2: 贪吃蛇是一款经典的游戏,如今通过结合遗传算法和深度学习,我们可以训练AI来玩这个游戏。下面是一个简单的教程: 首先,我们需要定义游戏的状态和动作空间。状态空间包括蛇的位置、食物的位置和蛇的移动方向等信息。动作空间包括蛇的移动方向,例如上、下、左、右。 接下来,我们使用深度学习模型来定义AI的决策策略。常见的深度学习模型可以使用卷积神经网络或者循环神经网络等。模型的输入是游戏的状态空间,输出是在该状态下蛇的移动方向。 然后,我们要考虑如何训练深度学习模型。传统的方法是使用监督学习,人工标注大量样本作为训练集,然后通过最小化预测值与实际值之间的误差来优化模型。但是,由于贪吃蛇的决策策略很难确定,监督学习的方法并不适用。 因此,我们可以利用遗传算法来进行训练。遗传算法是一种优化方法,通过模拟自然进化的过程来寻找最优解。我们可以将AI的决策策略看作一个个体,通过对一代代个体进行选择、交叉和变异等操作,逐渐优化AI的决策策略。 具体来说,我们可以将深度学习模型的参数作为个体的基因,通过遗传算法来优化这些基因。每代都会根据个体的适应度来选择存活个体,并根据选择的个体进行交叉操作产生新的个体,最后通过变异操作加入一定的随机性。这样,经过多代的进化,AI的决策策略会逐渐变得更好。 最后,我们可以通过将训练好的AI应用到贪吃蛇游戏中进行测试。可以将AI的决策策略与随机策略或者专家策略进行对比,评估AI的性能。 总之,使用遗传算法和深度学习训练AI来玩贪吃蛇游戏是一个有趣的任务。通过逐代优化AI的决策策略,我们可以让AI逐渐变得更加智能,并在贪吃蛇游戏中表现出优秀的游戏技巧。 ### 回答3: 要使用遗传算法和深度学习来训练AI玩贪吃蛇的游戏,可以按照以下步骤进行: 1. 创建游戏环境:首先,需要创建一个贪吃蛇的游戏环境,包括蛇的初始位置、食物的位置等。可以使用Python编程语言来实现游戏环境。 2. 定义神经网络模型:接下来,需要定义一个神经网络模型,作为AI的大脑。可以使用深度学习框架,如TensorFlow或PyTorch,来创建模型。模型的输入为游戏环境的状态,输出为蛇的动作,如向上、向下、向左、向右移动。 3. 遗传算法初始化种群:使用遗传算法来优化神经网络模型的参数。首先,需要随机生成一批个体(神经网络模型),也称为初始种群。这些个体的参数会在后续的训练过程中不断优化。 4. 评估适应度:使用初始种群中的每个个体来玩贪吃蛇游戏,并评估它们的性能。可以定义适应度函数来量化个体在游戏中的表现。比如,可以根据蛇吃到的食物数量作为适应度评估的指标。 5. 选择和交叉:根据每个个体的适应度,选择一些优秀的个体进行交叉,生成新的个体。选择和交叉的过程是为了保留优质基因,并引入新的基因。 6. 变异和选择:对新生成的个体进行变异操作,引入新的基因变化。变异和选择的过程是为了增加种群的多样性,避免陷入局部最优解。 7. 重复迭代:重复进行步骤4至6,直到达到预设的迭代次数或达到停止条件。每次迭代都可以得到一批新的个体,通过不断优化适应度函数,逐步提高AI在贪吃蛇游戏中的表现。 通过以上步骤的迭代训练,AI能够逐渐学习到更好的策略和动作选择,以实现在贪吃蛇游戏中取得较高的得分。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值