![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Cris_Lee卡卡卡
https://github.com/lrs1353281004
展开
-
医学自然语言处理相关资源整理
# Chinese_medical_NLP医疗NLP领域(主要关注中文) 评测数据集 与 论文等相关资源。原创 2020-04-07 18:21:56 · 9393 阅读 · 0 评论 -
sklearn 使用软标签进行多标签、多分类训练的一种实现方法
目标场景Multilabel classifcation in sklearn with soft (fuzzy) labels。在sklearn中,使用软标签(one-hot标签:(1,0,0),软标签:(0.8,0.2,0))进行多标签分类问题。解决方案神经网络的训练方式是直接支持使用软标签训练的。对于sklearn中的部分基础机器学习分类模型,无法直接支持软标签训练。一个解决方案...原创 2020-04-03 10:25:28 · 3219 阅读 · 0 评论 -
CS224n(2019):Assignment2 参考答案
CS224n : Assignment2 参考答案本文为cs224n课程的 assignment2 中的公式推导部分参考答案。如有疑问或者错误之处,欢迎交流。Assignment2 原文Assignment2 编码部分参考答案Variables notationAttention: All the variables’ dimensions here are consistent w...原创 2019-04-22 13:24:46 · 9968 阅读 · 10 评论 -
CS224n课程资源-winter,2019
CS224n: Natural Language Processing with Deep Learning自然语言处理领域的经典课程。2019,winter. 最新一期课程。课程资源列表官方网址课程官方网址(官方网站包含课程ppt,笔记,推荐阅读资料,作业及课程项目等参考材料)课程视频720p,包含原版英文字幕及中文字幕(机器翻译)中文字幕为机器翻译版本,质量有限,建议使用英文...原创 2019-04-22 13:03:01 · 900 阅读 · 1 评论 -
CS224n(2019):Assignment 3 参考答案
CS224n : Assignment 3 参考答案本文为cs224n课程(winter,2019)的 assignment 3 中的代码部分和问答部分参考答案。如有疑问或者错误之处,欢迎交流。代码部分答案见 github地址问答部分答案:2.(a)StackBufferNew dependencyTransition[ROOT][I,parsed,this,...原创 2019-04-26 12:33:07 · 4505 阅读 · 0 评论 -
IOU(交并比)计算的python3实现
IOU定义在目标检测的评价体系中,有一个参数叫做 IoU ,简单来讲就是模型产生的目标窗口和原来标记窗口的交叠率。具体我们可以简单的理解为: 即检测结果(DetectionResult)与 Ground Truth 的交集比上它们的并集,即为检测的准确率 IoU :根据定义,IOU的取值范围是[0,1].python 代码实现# encoding: utf-8def compute_I...原创 2019-03-13 15:57:41 · 17137 阅读 · 1 评论 -
softmax 的python3实现 - 优化版本
Softmax 函数定义Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量“压缩”到另一个K维实向量中,使得每一个元素的范围都在之间,并且所有元素的和为1。该函数的形式通常按下面的式子给出:其中, j = 1, …, Ksoftmax 的python3实现import numpy as npdef softmax(x): """Co...原创 2019-03-13 14:58:14 · 922 阅读 · 0 评论 -
常用决策树算法总结
算法思想决策树(decision tree)是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。使用决策树进行决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分支,直到到达叶子节点,将叶子节点存放的类别作为决策结果。总结来说:决策树模型核心是下面几部分:结点和有向边组...转载 2019-02-16 15:20:28 · 7518 阅读 · 0 评论 -
机器学习优化算法 (Optimization algorithms)总结
文章目录批量梯度下降、随机梯度下降与mini-batch随机梯度下降批量梯度下降(BGD)随机梯度下降(SGD)mini-batch 随机梯度下降MomentumRMSpropAdam批量梯度下降、随机梯度下降与mini-batch随机梯度下降在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面...转载 2019-02-15 15:45:09 · 2924 阅读 · 0 评论 -
机器学习损失函数梳理
没有一个适合所有机器学习算法的损失函数。针对特定问题选择损失函数涉及到许多因素,比如所选机器学习算法的类型、是否易于计算导数以及数据集中异常值所占比例。文章目录均方误差/平方损失/L2 损失(MSE)平均绝对误差/L1 损失平均偏差误差(mean bias error)Huber损失函数Hinge Loss/多分类 SVM 损失交叉熵损失/负对数似然Log-Cosh损失Focal loss均方...原创 2019-02-15 14:39:39 · 1103 阅读 · 0 评论 -
交叉熵信息学解释及其在机器学习中的应用
待填充原创 2018-09-17 23:46:44 · 1010 阅读 · 0 评论 -
LSTM-基本原理-前向传播与反向传播过程推导
前言最近在实践中用到LSTM模型,一直在查找相关资料,推导其前向传播、反向传播过程。 LSTM有很多变体,查到的资料的描述也略有差别,且有一些地方让我觉得有些困惑。目前查到的资料中我认为这个国外大神的博客写的比较清晰: http://arunmallya.github.io/writeups/nn/lstm/index.html#/ 这个博客中的有些步骤有一定跳跃性,本文中的描述主要基于...原创 2018-07-24 23:15:25 · 14864 阅读 · 7 评论 -
机器学习-算法工程师 -面试/笔试准备-重要知识点梳理
原文地址:http://blog.csdn.net/lrs1353281004/article/details/79529818整理了一下机器学习-算法工程师需要掌握的机器学习基本知识点,并附上了网上笔者认为写得比较好的博文地址,供参考。(持续更新)机器学习相关基础概念Variance(方差)与bias(偏差)https://www.zhihu.com/question/270...原创 2018-03-12 17:10:01 · 9666 阅读 · 0 评论 -
Boosting 与 Bagging 的区别与联系
资料整理自《机器学习》,周志华Boosting 与BaggingBoosting 与 Bagging 均属于集成学习方法。集成学习研究的核心:产生并结合“好而不同”的个体学习器。Boosting :个体学习器间存在强依赖关系、必须串行生成的序列化方法。主要关注降低偏差(bias)。典型算法:AdaBoost工作机制:先从初始训练集训练出一个基学习器,根据基学习器的表现调整训...原创 2018-03-11 21:03:42 · 959 阅读 · 0 评论 -
《统计学习方法》摘录-朴素贝叶斯法
#摘录自《统计学习方法》李航#朴素贝叶斯法(naïve Bayes,NB)是基于贝叶斯定理与特征条件独立假设的分类方法。属于生成模型。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。基本方法输入空间 为n维向量的集合,输出空间为类标记集合Y={c1,c2,…,ck}。输入为特征向...原创 2018-03-04 15:33:10 · 677 阅读 · 0 评论 -
隐马尔可夫模型定义与3个基本问题
隐马尔可夫模型(hidden Markov model,HMM)是可用于标注问题的统计学习模型,描述由隐藏的马尔可夫链随机生成观测序列的过程,属于生成模型。隐马尔可夫模型定义隐马尔可夫模型由初始概率分布、状态转移概率分布以及观测概率分布确定。设Q是所有可能的状态的集合,V是所有可能的观测的集合。其中,N为可能状态数,M为可能的观测数。I是长度为T的状态序列,O是对应的观测序列。A是状态转移概率矩阵...原创 2018-03-01 21:03:19 · 7955 阅读 · 0 评论 -
机器学习常用性能度量指标
机器学习常用性能度量指标回归任务性能指标回归任务最常用的指标是"均方误差"(mean squared error):给定样例集D={(x1,y1),(x2,y2),...,(xm,ym)},其中yi是示例xi的真实标记。记f(x)为预测结果。均方误差表示为: 分类任务性能指标错误率与精度这两个指标既适用于二分类任务,也适用于多分类任务。错误率是分类错误的样本数占样本总数的比例,精度则是分类正确...原创 2018-03-01 15:00:00 · 3724 阅读 · 0 评论