【KDD2024】高频交易中的宏观强化学习:记忆增强的上下文感知强化学习

c49c2ed05c360d793648734d4ac486c0.png

来源:专知
本文为论文介绍,建议阅读5分钟我们提出了一种新颖的记忆增强的上下文感知强化学习方法。

132c36b7e2b24bce3b3c848aca976dd7.png

高频交易(HFT)在短时间尺度内执行算法交易,近年来已占据了加密货币市场的大部分份额。除了传统的量化交易方法外,强化学习(RL)由于其处理高维金融数据和解决复杂序列决策问题的强大能力,已成为高频交易的另一种有吸引力的方法。例如,分层强化学习(HRL)通过训练一个路由器从代理池中选择一个子代理来执行当前交易,已在秒级高频交易中显示出其前景。然而,现有的高频交易强化学习方法仍存在一些缺陷:1)标准的基于RL的交易代理面临过拟合问题,无法根据金融背景有效调整策略;2)由于市场条件的快速变化,由单个代理做出的投资决策通常是片面的且高度偏向的,这可能在极端市场中导致重大损失。为了解决这些问题,我们提出了一种新颖的记忆增强的上下文感知强化学习方法,称为MacroHFT,该方法包含两个训练阶段:1)首先,我们根据各种金融指标(特别是市场趋势和波动性)分解市场数据,训练多种类型的子代理,每个代理拥有一个条件适配器,根据市场条件调整其交易策略;2)然后,我们训练一个超代理来混合这些子代理的决策,并输出一个能够应对快速市场波动的一致盈利的元策略,同时配备记忆机制以增强决策能力。在各种加密货币市场上的大量实验表明,MacroHFT在分钟级交易任务中可以达到最先进的性能。代码已发布在 https://github.com/ZONG0004/MacroHFT。

f7ea776ca9c8ac4e8c15b5393b3c944d.png

8fa9280aaed06b19033ce42ee5b4cb80.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值