![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
老杨2011
风口上的人工智能
展开
-
F.cross_entropy 交叉熵损失
https://blog.csdn.net/wuliBob/article/details/104119616 Examples:: >>>import torch.nn.functional as F >>> input = torch.randn(3, 5, requires_grad=True) >>> target = torch.randint(5, (3,), dtype=tor...转载 2020-06-12 10:23:30 · 994 阅读 · 0 评论 -
概率分布基础知识
一、均匀分布期望:取值乘以概率密度函数的累加和或者是积分。方差:EX2−(EX)2{EX^2 - (EX)^2}EX2−(EX)2二、伯努利分布期望,方差推导原创 2018-12-19 16:38:03 · 2000 阅读 · 0 评论 -
机器学习中输入空间、特征空间、假设空间
容易迷糊的几个概念:输入空间:X输出空间:Y特征空间:每一条样本被称作是一个实例,通常由特征向量表示,所有特征向量存在的空间称为特征空间。特征空间有时候与输入空间相同,有时候不同(例如word embbeding),不同的情况是输入空间通过某种映射生成了特征空间。联合概率分布:两个以上随机变量所组成的随机向量的概率分布称作是联合概率分布。根据对象的类型可分为离散型随机变量以及连续...转载 2018-12-28 10:21:41 · 3135 阅读 · 0 评论 -
统计学习--HMM
隐马尔可夫模型的定义:HMM 是关于时序的概率模型,描述由一个隐藏的马尔可夫链随机生成不可观测的状态随机序列,再由各个状态生成一个观测而产生观测随机序列的过程。(p171)隐藏的马尔可夫链随机生成的状态的序列,称为状态序列。每个状态生成一个观测,而由此产生的观测的随机序列,称为观测序列。序列的每一个位置又可以看作是一个时刻 t。隐马尔可夫模型由初始概率分布(π\piπ)、状态转移概率...原创 2019-03-10 15:58:42 · 373 阅读 · 0 评论 -
实体识别NER模块理解整理(待进一步更新)
请参考一篇BiLSTM-CRF比较易懂的文章基于上面的链接内容的理解 博客其中的CRF:由于状态转移的限制,能够避免诸如 I 的后面接 B的非法错误。原创 2019-06-13 21:44:30 · 471 阅读 · 0 评论 -
第10章 第11章,降维与特征选择
第10章 降维与度量学习西瓜书中,补充 推导如下12345 (PCA流程总结)678——————————————————————————————————————第11章 特征选择与稀疏学习...原创 2018-11-27 12:03:25 · 151 阅读 · 0 评论 -
逻辑回归
回归回归,其直观的理解就是拟合的意思。回归的本质就是我们的预测结果尽量贴近实际观测的结果,或者说我们的求得一些参数,经过计算之后的预测结果尽可能接近真实值。线性回归定义线性回归是一个回归问题,即用一条线去拟合训练数据线性回归的模型: 通过训练数据学习一个特征的线性组合,以此作为预测函数,预测值Y是连续值。 f(x)=ω1x1+ω2x2+⋯+ωnxn+bf(x) = \omega_1...原创 2018-11-19 18:03:37 · 203 阅读 · 0 评论 -
6.3-6.4核函数
核函数可以将样本空间映射到更高维的特征空间 ,使得样本在这个特征空间内线性可分。以下根据西瓜书,推导6.3到6.4核函数的相关公式推导第1页第2页 第3页 第4页 ...原创 2018-10-26 10:01:52 · 166 阅读 · 0 评论 -
6.5支持向量回归SVR
西瓜书6.5SVR梳理,到后面的6.6实在看不动了,有浅显易懂的博文、视频欢迎给我评论留言。以下开始简单的推导:第1页第2页 第2页中的画红线部分不太理解,是否意味着点只能在间隔的一边? 不这么约束是否可以? ————————————————————————————割————————————————————SVM推导流程的简单概括: ...原创 2018-10-30 18:55:01 · 642 阅读 · 0 评论 -
7.3 朴素贝叶斯分类器
朴素:属性条件独立性假设。即假设每个属性独立地对分类结果发生影响。朴素贝叶斯分类器重写了书中的式(7.8)为:P(c∣x)=P(c)P(x∣c)P(x)=P(c)P(x)∏i=1dP(xi∣c)P(c|x) = \frac{P(c)P(x|c)}{P(x)} = \frac{P(c)}{P(x)}\prod_{i=1}^d P(x_i|c)P(c∣x)=P(x)P(c)P(x∣c)=P(x)...原创 2018-11-04 20:25:59 · 443 阅读 · 0 评论 -
互信息、条件互信息
参考两个博客互信息概念与定理互信息的理解但第2中公式的变形,实在没看懂,于是推导部分参考wiki,或者这篇原创 2018-11-05 16:03:37 · 7889 阅读 · 0 评论 -
5.2 BP误差逆传播
BP中的复合函数求导:链式求导法则原创 2018-11-12 09:24:16 · 359 阅读 · 0 评论 -
2.1-2.2 模型评估与选择
误差(error):学习器的实际预测输出与样本的真实输出之间的差异。训练误差(或经验误差):学习器在训练集上的误差(training error)、(empirical error)。泛化误差:学习器在新样本上的误差(generalization error)。=> 希望得到泛化误差小的学习器,但能做的是让训练误差尽量小。欠拟合与过拟合,与学习器的学习能力有关。(这里的学习能力是否“...原创 2018-11-14 14:21:48 · 233 阅读 · 0 评论 -
线性回归
线性回归标签(空格分隔): 机器学习基本形式:给定d个属性的示例 $ x= (x_1 ; x_2 ; \cdots ; x_d) ,其中,,其中,,其中,x_1$ 是 xxx在第个iii属性上的取值。f(x)=ω1x1+ω2x2+⋯+ωnxn+bf(x) = \omega_1x_1 + \omega_2x_2 + \cdots + \omega_nx_n + b f(x)=ω1x1+...原创 2018-10-18 09:33:52 · 227 阅读 · 0 评论