![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Marchine Learning
Bread Sir
记录算法之路
展开
-
NLP-CS224n学习讲义PART 1——Word Vector 1: Introduction, SVD and Word2vec
1 介绍NLP1.1 NLP有什么特别之处?人类的语言是一个专门用来传达意思的系统,而不是由任何一种物质表现所产生的。在这方面,它与视觉或其他任何机器学习任务有很大区别。大多数单词只是语言外实体的符号,而语言符号可以被编码成多种形式,比如声音、手势、文字等连续的信号。1.2 NLP任务举例从语音处理到语义解释和语篇处理,自然语言处理任务的level是不同的。不同level如下:简单:...原创 2020-05-06 17:33:15 · 284 阅读 · 0 评论 -
NLP-CS224n学习讲义PART 2——Word Vector 2: GloVe, Evaluation and Training
NLP-CS224n学习讲义PART 2——Word Vector 2: GloVe, Evaluation and Training1 Global Vectors for Word Representation(GloVe)1.1 方法间的比较我们之前提到两种查找词汇嵌入的方式。第一种就是基于计数且依赖于矩阵分解的方式,这种方式可以有效地利用了全局统计信息,但是它们未能很好捕捉单词相似性。第二种基于window方式,即skip-gram和CBOW的方式,这种方式能够很好的捕获单词之间的相关性,但是原创 2020-05-30 17:54:24 · 185 阅读 · 0 评论 -
NLP-CS224n学习讲义PART 3——Neural Networks, Backpropagation
1 神经网络基础从下面一张图我们可以知道为什么我们需要使用神经网络进行分类:这张图显示了线性回归分类的局限性,也就是大部分的数据都不是线性可分的,所以我们需要非线性的分类器。而神经网络是一类具有非线性决策边界的分类器,如下图所示:所以我们可以接下来主要学习神经网络的一些基础知识,很简单,但需要掌握。1.1 一个神经元一个神经元在神经网络中就是一个输入n个inputs并输出单个output的计算单元,不同的权重会输出不同的output。其中最常选择的神经元之一便是"sigmoid"或者称为"二元原创 2020-05-30 17:59:38 · 166 阅读 · 0 评论 -
NLP-CS224n学习讲义PART 4——Dependency Parsing
1 依存语法和依存结构NLP中的解析树与编译器中的解析树类似,用于分析句子的句法结构。主要有两个类型的结构——成分结构和依存结构。成分语法结构使用短语结构语法将单词组织成嵌套的成分。而我们主要关注的是依存结构解析。句子的依存结构主要分析的是哪些词依赖于其他哪些词。这些单词之间的二元非对称关系称为依存关系,并被描述为从首领(或上级)到附属(或修饰词、下级)的指向关系。通常这些依存关系形成一个树结构。它们通常与语法关系的名称(主语、介词宾语、同位语等)一起输入。下图是一个依存树的例子。Bills on原创 2020-06-12 10:48:05 · 297 阅读 · 0 评论 -
Machine Learning——聚类(基本概念)
1、聚类任务我们知道在无监督学习中,训练样本的标签是未知的,所以为了能够通过这些无标签的训练样本来探究数据的内在性质及其规律,便产生了许多无监督学习算法。其中,我们若想要通过数据的内在性质来分类数据,那么出现了一种叫 “聚类” 的方法。【 定义 】聚类针对给定的样本,依据它们特征的相似度或距离,将其归并到若干个 “类” 或 “簇” 的数据分析问题。而这些类或簇通常是不相交的子集。而聚类过程...原创 2019-11-16 17:22:33 · 211 阅读 · 0 评论 -
周志华《机器学习》(西瓜书)学习笔记——第一章 绪论
1.2 基本术语示例 / 样本 / 特征向量:是关于一个事件或对象的描述的记录。数据集:一组记录的集合。属性:反映事件或对象在某方面的表现或性质的事项。属性值:属性上的取值。属性空间 / 样本空间 / 输入空间:属性张成的空间。...原创 2019-01-18 22:11:45 · 422 阅读 · 0 评论 -
周志华《机器学习》(西瓜书)学习笔记——第三章线性模型
在ipad的Goodnotes记了笔记,导出为图片记录在CSDN上。原创 2019-06-17 17:33:27 · 638 阅读 · 3 评论 -
周志华《机器学习》(西瓜书)学习笔记——第四章决策树
原创 2019-07-16 20:28:44 · 649 阅读 · 0 评论 -
周志华《机器学习》(西瓜书)学习笔记——第五章神经网络
原创 2019-07-16 20:32:12 · 749 阅读 · 0 评论 -
Machine Learning In Action 学习笔记之 决策树
决策树是一种常见的机器学习算法,也是很容易理解的。顾名思义,它是基于树结构进行决策的。如下图所示:正方形表示 判断模块 , 椭圆形表示 终止模块,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点,叶节点表示决策结果。1. 决策树的构造构造决策树,需要解决的第一个问题就是,当前数据集上 哪个特征 在划分数据分类时其决定性作用(就是选择哪个特征进行划分)创建分支的伪代码create...原创 2019-09-25 16:18:19 · 172 阅读 · 0 评论 -
Machine Learning In Action 学习笔记之 KNN算法
kNN算法应该是整个机器学习算法里最最容易理解的算法。k-近邻算法它采用测量不同特征值之间的距离来进行分类,求距离是整个算法中最核心的部分。K-近邻,顾名思义,取离测试样例最近的k个已知类型样例,其中这个测试样例的类别即为这k个样例中占最多类别的样例类别。下图为KNN的原理:图中,如果K=3,由于红色三角形所占比例为2/3最高,绿色圆将被赋予红色三角形那个类别,如果K=5,由于蓝色正方...原创 2019-09-21 15:15:23 · 172 阅读 · 0 评论 -
Pytorch实现Logistic Regression
接上一个博客《Machine Learning In Action 学习笔记之 Logistic regression》,这使用的是Numpy进行回归,但我想改用Pytorch框架来写这个程序。给定数据集(前两列为特征x1, x2,第三列为标签y) 如下所示:-0.017612 14.053064 0-1.395634 4.662541 1-0.752157 6.538620 0-1....原创 2019-09-19 19:49:35 · 409 阅读 · 10 评论 -
Machine Learning In Action 学习笔记之 Logistic regression
一、 Logisitic regression逻辑回归是机器学习算法中最基础的算法之一,简单的理解逻辑回归就是进行二分类。其本质就是在空间中找到一个决策边界来完成分类的决策。举个例子:上图有一些数据,特征为x1 和 x2,类别为0 或 1,现在我们需要找到一个线来划分这个图,使得这条线上为一个类,线下为另一个类。如下图所示。这就是Logistic Regression 所能做的事。...原创 2019-09-17 10:45:12 · 176 阅读 · 0 评论