![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
强化学习
Cater Chen
寄希望于黎明
展开
-
ElegantRL源码解读
ElegantRL源码解读框架结构创造agent,各个agent已经封装好,选择算法from elegantrl.agent import AgentDuelingDQN选择环境PreprocessEnv(env=gym.make('LunarLander-v2'))# 股票环境from envs.FinRL.StockTrading import StockTradingEnv# 在环境里加载数据,加入相关指标self.price_ary, self.tech_ary =原创 2021-06-08 15:56:25 · 1252 阅读 · 0 评论 -
finRL源解读
finRL源解读required = { ‘yfinance’, ‘pandas’, ‘matplotlib’, ‘stockstats’, ‘stable-baselines’, ‘gym’}数据处理获取股票日价格以及加入各种指标作为state,如果是多只股票,排列方式为根据每日每只股票排列。index累加。分成训练集和测试集建模state_space: state_space = ( 1 + 2 * stock_dimens原创 2021-06-07 18:31:16 · 1156 阅读 · 0 评论 -
强化学习在量化交易中的应用
强化学习在量化交易中的应用如何构建环境如何定义state如何定义action如何定义reward如何操作数据FinRL框架核心部件简介ElegantRL图中Agent.py中的智能体使用Net.py中的网络,并且通过与Env.py中的环境进行交互在Run.py中进行了训练。https://github.com/AI4Finance-LLC/FinRLhttps://github.com/AI4Finance-LLC/ElegantRL数据处理Pyt原创 2021-06-07 12:54:39 · 704 阅读 · 0 评论 -
pytorch在强化学习中的应用
pytorch在强化学习中的应用torch.distributions.categoricalCategorical()可以按照一定概率产生具体数字from torch.distributions.categorical import Categoricalrand = Categorical(torch.tensor([0.25,0.25,0.25,0.25]))# 按[0.25,0.25,0.25,0.25]的概率去生成[0,1,2,3]print(rand.sample())这原创 2021-06-07 09:22:52 · 936 阅读 · 0 评论 -
强化学习与监督学习的区别在哪里?
强化学习与监督学习的区别在哪里?转载 2021-06-03 16:28:17 · 1095 阅读 · 0 评论 -
强化学习之Gym
强化学习之Gym它是一个开发、比较各种强化学习算法的工具库,提供了不少内置的环境,是学习强化学习不错的一个平台,gym库的一个很大的特点是可以可视化,把强化学习算法的人机交互用动画的形式呈现出来,这比仅依靠数据来分析算法有意思多了。用pip安装source activate gymlabpip install gym测试import gymenv = gym.make('CartPole-v0')env.reset()for _ in range(1000): env.r原创 2021-06-03 09:49:19 · 561 阅读 · 1 评论 -
强化学习算法介绍
强化学习算法介绍对比学习一:sarsaQ-learningDQNpolicy gradientDDPGActor-CriticSoft Actor-CriticA3CPPO离散:DQN连续:DDPG原创 2021-06-02 17:42:20 · 203 阅读 · 0 评论 -
强化学习资料
强化学习资料强化学习入门总结转载 2021-05-31 14:22:39 · 46 阅读 · 0 评论