自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 WonderTrade 笔记

安装教程创建环境conda create -n wondertrade python=3.9conda activate wondertrade安装 wtpypip install wtpy版本重新配置在未进行版本重新配置时, import 时会提示如下错误Traceback (most recent call last): File "<stdin>", line 1, in <module> File "C:\ProgramData\A.

2022-03-18 00:46:34 609

原创 humminbot 笔记

安装 Docker# 1) Download Docker install scriptwget https://raw.githubusercontent.com/hummingbot/hummingbot/master/installation/install-docker/install-docker-ubuntu.sh# 2) Enable script permissionschmod a+x install-docker-ubuntu.sh# 3) Run installati.

2022-03-17 10:47:31 1522

原创 Crypto Market Maker Project: 做市商 高频交易 回测

Crypto Market Maker Project: 做市商 高频交易 回测

2022-03-06 21:08:36 2457

原创 BSC 测试链配置

全流程步骤安装 MetaMask 钱包在 MetaMask 钱包中配置 BSC 测试链向测试链钱包注入测试 BNB/USDT/DOGERemix 编写代码正式发币1. 安装 MetaMask 钱包下载地址:https://metamask.io/2. 在 MetaMask 钱包中配置 BSC 测试链选择自定义 RPC配置文档参考地址: https://docs.binance.org/smart-chain/wallet/trezor.html#unlock-your-met

2021-07-02 00:02:03 31211 7

原创 Neural Task Graphs: Generalizing to Unseen Tasks from a Single Video Demonstration

读论文目的:目标: 完成上层任务规划输入: 总任务输出: n * (操作 + 参数)论文题目:Neural Task Graphs: Generalizing to Unseen Tasks from a Single Video Demonstration论文地址:论文地址论文视频:视频地址论文目的:在指定的域中,只有一个完成任务的视频演示,我们需要根据这个演示生成一个策略,用来完成一个没有见过的任务后面的慢慢写,明天先考试...

2021-03-28 14:20:57 239 1

原创 Continuous Relaxation of Symbolic Planner for One-Shot Imitation Learning: 利用符号规划问题的单样本模仿学习

摘要 Abstract研究内容: 一次性模仿学习目标: 基于单个演示来执行之前未见过的任务过去研究优点: 模仿学习效果很好过去研究不足: 大多数方法需要几百个元训练任务,限制了方法的可扩展性创新工作: 将一次性模仿学习作为一个伴有符号基础问题的符号规划问题创新意义: 这种形式将策略执行与任务间的泛化分离开来,从而提高数据效率创新难点: 关键挑战是符号基础在训练数据有限的情况下容易出错,导致后续的符号规划失败难点解决方式: 通过提出一个离散符号规划者的连续松弛解

2021-03-18 00:07:57 471

原创 强化学习笔记(六)

Deep Q NetworkDeep Q Network 意义Q 表格的存储和查询消耗大量空间时间, 社交网络有效提升了效率Deep Q Network例子

2021-03-03 16:14:38 105

原创 强化学习笔记(五)

Sarsa(λ)Sarsa(λ) 定义更新获取到奖励的前 λ 步, λ 在 [0, 1] 之间取值, λ = 0: 只更新最后一步, λ = 1: 每一步都更新, 且权重相同, 0 < λ < 1: 离目标越远的步骤权重越低, 越近权重越高Sarsa(λ) 优点距离奖励越远的步骤, 在衰减因子 λ 的作用下, 价值越小, 而距离奖励越近, 价值越大, 通过这种方式, 可以避免往返执行重复的步骤并更快地整体调整价值参数...

2021-02-21 12:15:29 241 1

原创 强化学习笔记(四)

Sarsa在线学习(On-Policy): 说到做到, 亲自参与训练过程, 不是模拟选择, 直接选择行为执行Sarsa 算法初始化 Q(s, a) 为任意值重复以下步骤 (每个训练回合): 初始化状态 s 从状态 s 中根据来源于 Q 的策略选择行为 a (例如: ε-greedy ε=0.9: 90%情况取最优行为, 10% 情况随机采取行为) 重复以下步骤 (单个回合中的每一步): 执行行为 a, 观察奖励 r, 下一状态 s' 从状态 s' 中根据来源于 Q 的策略选择行为

2021-02-20 16:33:57 107

原创 强化学习笔记(三)

实现探宝者移动策略输出结果在代码下方import numpy as npimport pandas as pdimport time# 设置可重复显示的随机数np.random.seed(2)# 初始距离宝藏距离N_STATES = 6# 探宝者可执行操作ACTIONS = ['left', 'right']# 贪心策略执行比例EPSILON = 0.9# 学习效率ALPHA = 0.1# 衰减因子LAMBDA = 0.9# 最大回合数MAX_EPISO.

2021-02-19 21:12:47 93

原创 强化学习笔记(二)

Q-LearningQ-Learning 状态和行为a1a2s1-21s2-42更新规则:状态: s1: Q(s1, a2) > Q(s1, a1) => 行为: a2状态: s2: Q(s2, a2) > Q(s2, a1) => 行为: a2Q 现实: Q(s1, a2) = R + γ * max(Q(s2)) (R: 真实奖励, γ: 衰减因子)Q 估计: Q(s1, a2)差距 = 现实 - 估计新 Q(s1

2021-02-19 16:49:35 114

原创 强化学习笔记(一)

强化学习算法分类根据行为选择依据进行分类通过价值选行为:Q LearningSarsaDeep Q Network直接选行为:Policy Gradients想象环境并从中学习:Model based RL根据理解环境与否进行分类不理解环境(Model-Free RL):Q LearningSarsaPolicy Gradients理解环境(Model-Based RL):Q LearningSarsaPolicy Gradients

2021-02-19 16:10:15 90

原创 PaddlePaddle 官方 Cascade R-CNN + ResNeXt 101 + FPN 配置文档 cascade_rcnn_dcn_x101_vd_64x4d_fpn_1x.yml 解析

PaddlePaddle 提供了很多常见的深度学习模型,这里对 Cascade R-CNN + ResNeXt 101 + FPN 配置文档进行分析,方便大家进行调参和修改,文档名称为: cascade_rcnn_dcn_x101_vd_64x4d_fpn_1x.yml# 模型检测名称architecture: CascadeRCNN# 最大迭代数,每一个 iter 会运行 batch_size * device_num 张图片,batch_size 在下面中 TrainReader.batch_si

2021-02-05 22:27:34 1762 3

转载 mmdetection 训练 Faster R-CNN

训练步骤安装 labelmeconda create --name=labelme python=3.6conda activate labelmepip install pyqt5pip install labelme安装 scikit-image,scipypip install scikit-image -i https://pypi.tuna.tsinghua.edu.cn/simplepip install scipy -i https://pypi.tuna.tsing

2021-01-20 22:41:34 1852

转载 mmdetection 安装配置全过程

配置版本python=3.7pytorch = 1.2torchvision = 0.4cudatoolkit=10.0mmdetection = 1.1安装步骤建议使用加速器安装配置下载资源:安装配置文件, 提取码: 1fyy解压 cocoapi,mmcv,mmdetection-1.1.0 三个压缩包创建环境: conda create -n mmdetection python=3.7, 这个过程大概5分钟激活环境: conda activate mmdetection安

2021-01-20 16:43:15 2042 3

转载 mmdetection 2.0 安装配置 (win10)

参考 b 站安装教程需要注意以下 bug1. 最后一步出现问题:D:\Program Files\Anaconda\envs\mmdet2\lib\sitepackages\torch\utils\cpp_extension.py:191: UserWarning: Error checking compiler version for cl: 【WinError 2】 系统找不到指定的文件。warnings.warn('Error checking compiler version for {}:

2021-01-19 21:13:21 555 1

转载 Faster R-CNN 学习笔记

目录卷积层 (Concolutional Layer, Conv Layer)区域候选网络 (Region Proposal Network, RPN)感兴趣区域池化 (Region of Interest Pooling, ROI Pooling)分类层 (Classification Layer)Faster R-CNN 训练卷积层 (Concolutional Layer, Conv Layer)Conv Layer 包含三层: 卷积层 (Conv), 激活函数层(Rectifi

2021-01-08 15:56:39 489

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除