![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 96
chikily_yongfeng
白发催人老,虚名误人深,功名利禄如浮云。
展开
-
两遍读懂支持向量机 SVM (一些细节)
0. 理解 SVM 系列Step-1. 两遍读懂支持向量机 SVM (软硬 SVM)Step-2. 两遍读懂支持向量机 SVM (Kernel SVM)Step-3. 两遍读懂支持向量机 SVM (一些细节)1. 从原问题到对偶问题SVM 的核心优化思想是间隔最大化。对于训练集 {(x1,y1),(x2,y2),..,(xm,ym)}\{(x_1,y_1), (x_2,y_2),.., (x_m,y_m)\}{(x1,y1),(x2,y2),..,(xm,ym)} 而言,SVM 要找原创 2021-03-07 16:03:27 · 474 阅读 · 0 评论 -
循环神经网络 (处理时序型数据)
循环神经网络(Recurrent Neural Network, RNN)是一种处理时序型输入的神经网络。它被广泛应用在语音识别、机器翻译、人名识别、文本生成等任务上。RNN 存在多种变体,如 LSTM,GRU,BRNN,深层 RNN 等,这些网络能够较好的提升 RNN 在不同问题上的效率和效果。原创 2020-08-09 17:38:37 · 8478 阅读 · 1 评论 -
卷积神经网络 (GoogLeNet 的灵感)
GoogLeNet 是非常具有代表性的卷积神经网络,在 2014 年 ImageNet 挑战赛(图片分类)上夺取第一名桂冠1。GoogLeNet 不同于之前的 AlexNet,LeNet 或 VGG,它的设计更加颠覆传统。整个网络只有 22 层,但训练参数只有 500 万个,是 AlexNet 的十分之一。ImageNet. “Large Scale Visual Recognition Challenge 2014.” Link ↩︎原创 2020-08-05 15:42:00 · 1465 阅读 · 1 评论 -
卷积神经网络 (为什么是卷积?)
卷积神经网络(Conventional Neural Network, CNN)是深度学习的重要算法之一,常常应用在计算机视觉问题中,如图像分类和目标检测等。CNN 能够解决传统神经网络参数过多和丢失结果信息的缺点,这也人们选择 CNN 的主要原因。原创 2020-08-04 18:20:34 · 3762 阅读 · 2 评论 -
到底谁是异常 (多元高斯分布异常点检测)
异常点检测 (Outlier Detection) 相信大家并不陌生,它是无监督学习的重要应用之一,它的主要任务是从一些列无标签的样本中找到某些 “与众不同的” 的样本 (异常点 Outlier),这些样本与大部分样本 (正常点 Normal) 的分布“格格不入”。这篇文章主要介绍基于独立高斯分布 (Gaussian distribution) 和多元高斯分布 (Multi-variable Ga...原创 2020-04-26 10:59:38 · 2592 阅读 · 0 评论 -
找一棵树 (决策树 Decision Tree)
决策树 (Desicion Tree) 算法是机器学习的经典分类方法之一,它通过构造一棵具有决策能力的树来对样本进行分类。在这棵树当中,中间节点代表一个个特征,分支代表着按照对应节点划分样本的结果,终节点代表样本最终的类别。原创 2020-04-23 12:13:00 · 837 阅读 · 0 评论 -
两遍读懂支持向量机 SVM (Kernel SVM)
Kernel SVM 则是用来求解线性不可分的分类问题的。顾名思义,Kernel SVM 利用 核函数 (Kernel function) 将样本从低维空间 (输入空间) 映射到高维空间 (特征空间) 来进行线性划分。既然低维空间无法线性分割,那我们就将样本转换到高维空间进行线性分割吧。原创 2020-04-21 13:08:42 · 5937 阅读 · 0 评论 -
两遍读懂支持向量机 SVM (软硬 SVM)
支持向量机 (Support Vector Machine,SVM),也成为最大边界分类器,是上世纪 90 年代发明的性能优异的二元分类器。支持向量机的旨在找到一个合适的超平面使得其决策平面间的间距最大化。原创 2020-04-20 20:38:01 · 2942 阅读 · 0 评论 -
再读线性回归 Linear Regression (随机梯度下降)
在实际应用线性回归时,算法的时间复杂度随着样本个数的增多而增大。当样本个数非常大时,每次迭代的计算量将非常大,甚至普通计算机内存都无法存储这么多的数据。为此,人们提出了随机梯度下降 (Stochastic Gradient Descent) 和 小批量梯度下降 (Mini-batch Gradient Descent) 的方法。这两个方法在每次迭代过程中,使用一个或少数样本来计算代价和参数,实践证明他们能极大的减少计算量且较快的进行收敛。原创 2020-04-16 09:43:10 · 1467 阅读 · 0 评论 -
再读线性回归 Linear Regression (逻辑回归)
逻辑回归(Logistic Regression)算法将线性回归模型运用在分类问题上。简单的来说,逻辑回归仅仅是将线性回归的输出值做了一定的处理( 即 Sigmoid 或 Logisitc 函数),并设置一个阈值。当预测的输出值大于或等于这个阈值时,将样本分为一类;当预测的输出与之小于这个阈值时,将样本分为另一类。原创 2020-03-14 17:35:10 · 3018 阅读 · 1 评论 -
再读线性回归 Linear Regression (最小二乘法)
最小二乘法的核心思想直接计算出使得代价函数的梯度(偏导数)为零的参数向量。其优点就是不用一步步的调整参数,而是直接求解出的最优的参数。原创 2020-03-04 22:23:31 · 1463 阅读 · 0 评论 -
再读线性回归 Linear Regression (过拟合问题)
过拟合的一般理解是在训练集上拟合的很好,但是在测试集上预测结果很差。总的来讲,过拟合问题反映出模型的泛化能力的不足。在实际开发中,我们更希望提升出来的模型在测试集上的性能(泛化能力),而不是一味的拟合现有的训练集。原创 2020-03-02 15:45:28 · 3027 阅读 · 0 评论 -
再读线性回归 Linear Regression
线性回归(Linear Regression)是机器学习中的基本回归方法之一(其他的类似岭回归,多项式回归都是以之为基础)。简单的来讲,线性回归通过构造一个带有参数的多项式来预测新样本的值。原创 2020-03-01 21:22:37 · 929 阅读 · 0 评论 -
转载:什么是 Word2Vec?
Word2Vec 是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。 那么它是如何帮助我们做自然语言处理呢?Word2Vec 其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。转载 2019-05-08 20:11:55 · 1504 阅读 · 0 评论 -
Learning to Rank 的实践
Learning to rank(LTR) 也叫 Machine-learned ranking,指的就是用机器学习的方法来解决文档排序问题 。Learning to rank 的思想就是建立一个模型 LTR,当我们输入某个查询 q 时,能够从文档及 D 中找出相关的文档并排序。原创 2019-01-11 02:16:54 · 6225 阅读 · 1 评论 -
特征选择的探索
特征选择(feature selection),又称为变量选择,属性选择,或者变量子集选择。它指的是从原始特征集中选取最优特征子集的过程。筛选后得到的最优特征子集训练出来的模型具有更强的预测能力。特征选择的主要解决维度灾难问题。原创 2018-07-24 01:16:25 · 5567 阅读 · 1 评论