公鸡打鸣与人工智能

第一章 前言:关于交易的思考


六、公鸡打鸣与人工智能

 

公鸡打鸣可以预示太阳升起;太阳升起的原因却不是公鸡打鸣。——Adog

 

DeepMind团队新一代围棋AI“AlphaZero”版本不需要借助人类经验数据,主要依赖深度强化学习,仅通过4个TPU和72小时的训练后就能以100-0战胜上一版本AlphaGo。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的方法,从而能够通过对环境的感知,做出最大化效果预期的行动。

 

传统的量化投资策略是通过建立各种数学模型,在各种金融数据中试图找出市场的规律并加以利用。无论是根据人的经验判断,还是通过经典的数学模型,力所能及的模式都是有限的。从探寻股票市场的全局来看,人类积累经验的研究可以接近某一个局部的最优,而真正全局的“最优解”或许超出了目前传统量化力所能及的范畴。

 

一方面,对于市场中蕴藏的复杂的非线性规律,很难通过传统数学模型进行挖掘;另一方面,对于海量数据的挖掘,困于计算机运算能力的限制,如果不利用数据挖掘算法,往往需要耗费大量时间。人工智能能够提供非线性关系的模糊处理,弥补了人脑逻辑思维模式的单一性,同时,如果加以利用相关算法,可以大幅提高规律的搜索效率。人工智能的引入也使得投资策略更加丰富,如AI算法对于非线性模式的因子挖掘在多因子领域比传统线性多因子模型更加敏锐。

人工智能的发展,需要经历“机器辅助人——机器与人合作——机器完全自我学习”三个发展阶段。虽然完全强化学习在围棋上取得了突破,但目前仅在解决封闭空间的简单任务中取得成功,离普适还有一定距离,可以预见,在未来的相当长一段时间内,将会是人与机器融合的模式。对于量化投资来说,将会是分析师的经验和人工智能相融合。“AI+”量化投资模式将会成为人工智能应用于量化投资中的发展方向。人脑的抽象思维、情感思维是目前的AI不具有的,而AI的模糊运算和计算能力也是人脑不能企及的。两者互补将会成为未来AI量化投资的方向【8】。

 

强化学习(Reinforcement Learning)是让计算机实现在特定的情况下,通过不断地尝试,从错误中学习,最后找到规律,找到可以获得最大回报的行为。强化学习有四个基本组件,包括输入:环境(States),动作(Actions),回报(Rewards)以及输出:方案(Policy)。和监督学习不同,强化学习没有确定的标签,需要机器自己摸索,每一个动作对应一个奖赏,最后得到一个奖赏最大的方式进行数据处理。AlphaGo就是一个强化学习的实例。强化学习的主要算法有:Sarsa,QLearning, Policy Gradients, Actor-Critic,Deep-Q-Network等。强化学习的目标是发现最优策略π(x),使得达到最优价值Q【9】。主要有两种途径可以学习最优值函数:一种是基于模型的学习,在学习的过程中对模型进行估计,如实时动态规划(Real-TimeDynamic Programming, RTDP);另一种是无模型学习,在学习的过程中直接估计最优行动值。Q学习算法是Watkins在1987年提出的一种无模型强化学习算法:它用状态s下采取行动的下一个状态,对假定的行动所对应的最大值Q更新当前的值Q。强化学习Q算法具有不断试错、优化调整的特点。而量化投资同样面临着具有高风险和高不确定性的环境,而且往往需要在不同阶段动态调整不同股票的投资比例,这些问题通过强化学习Q算法可以得到较好的解决。

 

人工智能缺陷是不能完全解释内在机理因果关系及黑箱运作机制,公鸡打鸣可以预示太阳升起,人工智能能建立数据及事件的关联;太阳升起的原因不是公鸡打鸣,因此人工智能不能揭示解释事件本质因果关系及内在原因。放弃解析复杂系统中黑箱的内在机理,而研究事物间的关联性比获取其因果性更现实和务实。因此我们人工智能的应用聚焦在:(1)描述高维非线性空间世界的工具,(2)建立不同维度事物的关联。

 

人工智能可以描述高纬非线性空间世界的工具,对高维度进行特征描述。K线图是股市降维认知,但对期权需要更高维度的描述和认知。人工智能最新技术突破,深度/强化学习的技术质变使得对期权的高维度认知、自学习自进化成为可能。

 

http://adog.net.cnhttp://adog.net.cn

公众号:期权量化ADOG公众号:期权量化ADOG


​​​​

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿岛格

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值