![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数据分析
文章平均质量分 76
hezzfew
坚持是一件最难做的事情
展开
-
机器学习之线性模型
机器学习之线性模型1. 线性模型2. 对数几率模型(Logistic回归)3. 线性判别分析(LDA)4. 多分类学习5. 类别不平衡问题1. 线性模型线性模型是一类统计模型的总称,包括线性回归模型,方差分析模型,常应用于生物、医学、经济、管理。一般线性模型或多元回归模型是一个统计线性模型,公式:Y=WX+U,说白了就是用线性的函数去模拟样例的分布,在整个模拟过程中,我们希望线性模型的MSE最小,关于线性模型的MSE具体可详见另一篇文章:回归评估参数在模拟过程中存在一元线性函数,还有多元线性函数,对原创 2021-08-23 14:00:57 · 1303 阅读 · 0 评论 -
机器学习基础概念
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2021-08-16 13:57:09 · 167 阅读 · 0 评论 -
DDPG 算法
DDPG 算法1 离散动作 vs. 连续动作离散动作与连续动作是相对的概念,一个是可数的,一个是不可数的。在 CartPole 环境中,可以有向左推小车、向右推小车两个动作。在 Frozen Lake 环境中,小乌龟可以有上下左右四个动作。在 Atari 的 Pong 游戏中,游戏有 6 个按键的动作可以输出。但在实际情况中,经常会遇到连续动作空间的情况,也就是输出的动作是不可数的。比如说推小车力的大小、 选择下一时刻方向盘的转动角度或者四轴飞行器的四个螺旋桨给的电压的大小等等。对于这些连续原创 2020-11-06 16:30:26 · 11673 阅读 · 1 评论 -
稀疏奖励及模仿学习
稀疏奖励及模仿学习1 稀疏奖励关键词reward shaping: 在我们的agent与environment进行交互时,我们人为的设计一些reward,从而“指挥”agent,告诉其采取哪一个action是最优的,而这个reward并不是environment对应的reward,这样可以提高我们estimate Q-function时的准确性。ICM(intrinsic curiosity module): 其代表着curiosity driven这个技术中的增加新的reward function原创 2020-11-05 16:26:21 · 158 阅读 · 0 评论 -
DQN 算法及 Actor-Critic 算法
DQN 算法及 Actor-Critic 算法1 关键概念DQN(Deep Q-Network): 基于深度学习的Q-learning算法,其结合了 Value Function Approximation(价值函数近似)与神经网络技术,并采用了目标网络(Target Network)和经历回放(Experience Replay)的方法进行网络的训练。State-value Function: 本质是一种critic。其输入为actor某一时刻的state,对应的输出为一个标量,即当act原创 2020-11-03 11:16:07 · 1075 阅读 · 0 评论 -
策略梯度与PPO算法
策略梯度与PPO算法1 策略梯度2 PPO算法原创 2020-10-29 19:20:59 · 208 阅读 · 0 评论 -
马尔科夫链相关概念
马尔科夫链相关概念相关概念2. 存在的问题原创 2020-10-23 18:26:40 · 119 阅读 · 0 评论 -
强化学习基础知识
强化学习基础知识1. 概念强化学习四要素:状态(state)、动作(action)、策略(policy)、奖励(reward)。强化学习就是考虑的是智能体(Agent)与环境(Environment)的交互问题:这里是引用智能体处在一个环境中,每个状态为智能体对当前环境的感知;智能体只能通过动作来影响环境,当智能体执行一个动作后,会使得环境按某种概率转移到另一个状态;同时,环境会根据潜在的奖赏函数反馈给智能体一个奖赏。— 周志华 《机器学习》强化学习的目标是找到一个最优策略,使智能体获得尽原创 2020-10-20 20:28:54 · 1616 阅读 · 0 评论 -
模型集成(模型融合)
1 模型融合的方式平均:简单平均法加权平均法投票:简单投票法加权投票法综合:排序融合log融合stacking:构建多层模型,并利用预测结果再拟合预测。blending:选取部分数据预测训练得到预测结果作为新特征,带入剩下的数据中预测。boosting/bagging2 详述2.1 stacking将若干基学习器获得的预测结果,将预测结果作为新的训练集来训练一个学习器。如下图 假设有五个基学习器,将数据带入五基学习器中得到预测结果,再带入原创 2020-09-27 16:04:44 · 843 阅读 · 0 评论 -
模型调优过程
在特征工程上进行差不多的时候,接下来考虑更多的是模型调优,一般会先进行模型选择,在模型选择过程中,根据特征和数据情况,选择合适的基础模型,在基础模型上再进行参数寻优的过程,一般模型的准确率和在参数寻优的准确率上,差别一般是2个点左右,不过参数寻优过程中,寻优的成本会很大。1.模型学习相应模型的学习内容:逻辑回归模型决策树模型GBDT模型XGBoost模型LightGBM模型Catboost模型时间序列模型RNNLSTM推荐教材《机器学习》《统计学习原创 2020-09-22 10:20:25 · 1026 阅读 · 0 评论 -
金融风控相关的EDA
EDA目的1.EDA价值主要在于熟悉了解整个数据集的基本情况(缺失值,异常值),对数据集进行验证是否可以进行接下来的机器学习或者深度学习建模.2.了解变量间的相互关系、变量与预测值之间的存在关系。3.为特征工程做准备EDA相关内容数据总体了解:读取数据集并了解数据集大小,原始特征维度;通过info熟悉数据类型;粗略查看数据集中各特征基本统计量;缺失值和唯一值:查看数据缺失值情况查看唯一值特征情况深入数据-查看数据类型类别型数据数值型数据离散数值型数据连续原创 2020-09-17 15:17:25 · 215 阅读 · 0 评论 -
金融风控相关的知识点
金融风控相关的知识点对于金融风控预测类常见的评估指标如下KS(Kolmogorov-Smirnov)KS统计量由两位苏联数学家A.N. Kolmogorov和N.V. Smirnov提出。在风控中,KS常用于评估模型区分度。区分度越大,说明模型的风险排序能力(ranking ability)越强。K-S曲线与ROC曲线类似,不同在于ROC曲线将真正例率和假正例率作为横纵轴K-S曲线将真正例率和假正例率都作为纵轴,横轴则由选定的阈值来充当。公式如下:KS=max(TPR-FPR)KS不原创 2020-09-15 21:00:01 · 490 阅读 · 0 评论 -
时序模型的搭建和数据挖掘内容
1 时序模型时序规则相关内容常见的时序模型2 时序特征时序特征工程3 模型训练和预测模型训练和验证4 相关数学知识点概率论相关知识点原创 2020-08-25 11:23:24 · 117 阅读 · 0 评论 -
常见的时序模型
1 时序模型在时序模型中,以时间t为自变量,研究Y数值自身变化趋势。研究时间序列数据的意义:在现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。在现实中很多问题,如利率波动、收益率变化、反映股市行情的各种指数等通常都可以表达为时间序列数据,通过研究这些数据,发现这些经济变量的变化规律(对于某些变量来说,影响其发展变化的因素太多,或者是主要影响变量的数据难以收集,以至于难以建立回归模型来发现其变化发展规律,此时,时间序列分析模型就显现其优原创 2020-08-22 19:18:54 · 5180 阅读 · 0 评论 -
概率论相关内容
1 随机事件1.1 随机事件及相关概念随机实验满足以下三个条件:1.可以在相同条件下重复进行;2.结果有多种可能性,并且所有可能结果事先已知;3.作一次试验究竟哪个结果出现,事先不能确定。样本空间:称随机试验的所有可能结果组成的集合;样本点:试验的每一个可能结果;随机事件:样本空间中满足一定条件的子集为随机事件,随机事件在随机试验中可能出现也可能不出现;必然事件:在试验中,称一个事件发生是指构成该事件的一个样本点出现。由于样本空间包含了所有的样本点,所以在每次试验中,它总是发生,因此称为必原创 2020-08-19 21:18:22 · 2562 阅读 · 0 评论