![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
ZLBryant
这个作者很懒,什么都没留下…
展开
-
迁移学习四——ARTL
问题引入原创 2019-12-04 14:40:53 · 1148 阅读 · 15 评论 -
结合KSVM理解再生核希尔伯特空间(RKHS)中的表示定理(Representer Theorem)
1 线性模型与非线性模型在学习表示定理之前我们要先理解什么是线性模型,这个概念听过很多次,但真正追究起来并不是很清楚,在下面参考的第一二篇文章中对广义线性模型进行了讲解,在此我也不做总结,一是能力有限怕带跑偏了,二是本篇内容的重点不在此。其中比较明确的一点就是线性模型始终试图找到一个超平面对数据进行划分,例如逻辑回归,它是用超平面wTx+bw^{T}x+bwTx+b对数据进行划分,只不过对超平面...原创 2019-11-30 22:44:44 · 2205 阅读 · 0 评论 -
迁移学习三——BDA和W-BDA
问题引入原创 2019-11-28 15:58:58 · 3306 阅读 · 0 评论 -
饱和和非饱和激活函数
右饱和:当x趋向于正无穷时,函数的导数趋近于0,此时称为右饱和。左饱和:当x趋向于负无穷时,函数的导数趋近于0,此时称为左饱和。饱和函数和非饱和函数:当一个函数既满足右饱和,又满足左饱和,则称为饱和函数,否则称为非饱和函数。常用的饱和激活函数和非饱和激活函数:饱和激活函数有如Sigmoid和tanh,非饱和激活函数有ReLU;相较于饱和激活函数,非饱和激活函数可以解决“梯度消失”的问...原创 2019-11-11 21:40:04 · 13348 阅读 · 1 评论 -
迁移学习二——JDA
问题提出之前我们在学习TCA时提到新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将会带来全新的写作体验;在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;...原创 2019-11-02 14:58:45 · 3712 阅读 · 1 评论 -
迁移学习一——TCA和SSTCA
本篇文章是对论文《Domain Adaptation via TransferComponent Analysis》进行学习1 背景首先我们引入域的概念,通常认为域由两部分组成:输入χ\chiχ的特征空间和输入X的边缘概率分布P(X),其中X=(x1,x2,...,xn)∈χX=(x_{1},x_{2},...,x_{n})\in \chiX=(x1,x2,...,xn)∈χ是输入样本...原创 2019-10-23 22:25:32 · 6375 阅读 · 2 评论 -
再生核希尔伯特空间和核方法
前言之前一直以为自己把核方法搞懂了,但读论文的时候遇到核方法,总是有些细节的地方感觉模棱两可,后来才发现自己还有很多东西没学到,现在专门写一篇关于核方法的博客以作记录,也便于后面又学到新的内容时进行扩充。1 符号定义χ\chiχ:输入的特征空间X=(x1,x2,...,xn)∈χX=(x_{1},x_{2},...,x_{n})\in \chiX=(x1,x2,...,xn)∈χ:输...原创 2019-10-20 22:22:53 · 2072 阅读 · 3 评论 -
KPCA推导及理解
最近上课学到了KPCA,之前也有遇到过,但并没有进行详细了解,这次上课老师讲的比较快,感觉糊里糊涂的,课后在网上找了一些资料进行学习,发现https://zhuanlan.zhihu.com/p/59775730这篇文章中讲的很详细,看完后自己也做了一下记录。思路KPCA和PCA一样也是进行降维,但区别在于KPCA处理的问题是非线性的。KPCA先将数据通过映射ϕ\phiϕ映射到高维空间,然后再...原创 2019-10-17 22:34:38 · 5347 阅读 · 4 评论 -
SVM学习总结
这里写自定义目录标题SVM学习回顾1 线性可分支持向量机与硬间隔最大化1.1 线性可分支持向量机1.2 函数间隔和几何间隔1.3 间隔最大化1 最大间隔分离超平面2 支持向量和间隔边界1.3 学习的对偶算法2 线性支持向量机与软间隔最大化2.1 线性支持向量机2.2 学习的对偶算法功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表...原创 2019-09-13 15:59:27 · 728 阅读 · 0 评论