机器学习
文章平均质量分 58
VictorLeeLk
我是世界的某个BUG
展开
-
机器学习K均值聚类 python
机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书。因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用的机器学习算法。恰好遇见这本同样定位的书籍,所以就参考这本书的过程来学习了。 机器学习中有两类的大问题,一个是分类,一个是聚类。分类是根据一些给定的已知类别标号的样本,训练某种学习机器,使它能够对未知转载 2016-05-02 13:07:15 · 857 阅读 · 0 评论 -
优化算法——凸优化的概述
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/google19890102/article/details/44018135 一、引言 在机器学习问题中,很多的算法归根到底就是在求解一个优化问题,然而我们的现实生活中也存...转载 2018-10-18 09:55:27 · 6504 阅读 · 0 评论 -
CS231N softmax
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/stalbo/article/details/79379078 翻译笔记:https://zhuanlan.zhihu.com/p/21930884?refer=int...转载 2018-09-28 17:17:32 · 456 阅读 · 0 评论 -
准确率、查准率、召回率
混淆矩阵True Positive(真正,TP):将正类预测为正类数True Negative(真负,TN):将负类预测为负类数False Positive(假正,FP):将负类预测为正类数误报False Negative(假负,FN):将正类预测为负类数→漏报1、 准确率(Accuracy)定义:就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好。Acc=(T...原创 2018-09-28 15:43:09 · 1382 阅读 · 0 评论 -
hing-loss
常见的损失误差有五种:铰链损失(Hinge Loss):主要用于支持向量机(SVM) 中;互熵损失 (Cross Entropy Loss,Softmax Loss ):用于Logistic 回归与Softmax 分类中;平方损失(Square Loss):主要是最小二乘法(OLS)中;指数损失(Exponential Loss) :主要用于Adaboost 集成学习算法中;其他损失(...原创 2018-09-26 17:23:46 · 1114 阅读 · 0 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上转载 2017-08-08 11:06:38 · 411 阅读 · 0 评论 -
L0,L1范数详解
机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都转载 2017-08-08 10:52:49 · 26422 阅读 · 3 评论 -
[数据预处理]one-hot编码
网上关于One-hot编码的例子都来自于同一个例子,而且结果来的太抖了。查了半天,终于给搞清楚这个独热编码是怎么回事了,其实挺简单的,这里再做个总结。 首先,引出例子:已知三个feature,三个feature分别取值如下: feature1=[“male”, “female”] feature2=[“from Europe”, “from US”, “from Asia”] feature转载 2017-07-05 17:16:30 · 1094 阅读 · 0 评论 -
[python]感知机学习算法实现
模型感知机模型是属于二分类的线性判别模型,旨在找到一个线性超平面,能将正负实例划分开来。 f(x)=sign(w∗x+b)f(x)=sign(w*x+b) 学习策略学习策略即定义(经验)损失函数并将损失函数最小化感知机的学习策略是基于误分类点到超平面的距离之和经验损失函数如下: L(w,b)=−∑xi∈Myi(ω⋅xi+b)L(w,b)=-\sum_{x_i\in M}y_i(\ome原创 2017-04-19 20:10:12 · 2405 阅读 · 0 评论 -
ROC(Receiver Operating Characteristic)曲线简介
最近在看一些医学和机器学习结合的论文,这些论文里面评价分类器的分类性能最常用的指标之一就是ROC曲线。同时我也注意到在一些涉及到实际应用的场景中,ROC曲线出现的频率也很高。鉴于以上原因,接下来我就对ROC曲线进行一下简单的介绍。 首先我们先考虑一下平时我们常用的度量分类模型分类能力的标准。现在称霸ML界的标准:分类精度(accuracy)想必大家都不陌生,但是对于转载 2017-03-14 10:44:38 · 12392 阅读 · 2 评论 -
7行Python代码的人脸检测
随着去年alphago 的震撼表现,AI 再次成为科技公司的宠儿。AI涉及的领域众多,图像识别中的人脸识别是其中一个有趣的分支。百度的BFR,Face++的开放平台,汉王,讯飞等等都提供了人脸识别的API,对于老码农而言,自己写一小段代码,来看看一张图片中有几个人,没有高大上,只是觉得好玩,而且只需要7行代码。import cv2face_patterns = cv2.CascadeCla转载 2017-03-20 21:38:10 · 2080 阅读 · 0 评论 -
机器学习中防止过拟合的处理方法
原文地址:一只鸟的天空,http://blog.csdn.net/heyongluoyao8/article/details/49429629防止过拟合的处理方法过拟合 我们都知道,在进行数据挖掘或者机器学习模型建立的时候,因为在统计学习中,假设数据满足独立同分布(i.i.d,independently and identically distributed),即当前已产生的数据可以转载 2017-03-20 21:06:57 · 515 阅读 · 0 评论 -
损失函数:Hinge Loss(max margin)
From Wikipedia, the free encyclopediaPlot of hinge loss (blue) vs. zero-one loss (misclassification, green: y ) for t = 1 and variable y. Note that the hinge loss penalizes predi原创 2017-01-11 15:41:16 · 3978 阅读 · 0 评论 -
简单易学的机器学习算法——Softmax Regression
简单易学的机器学习算法——Softmax Regression标签: 机器学习SoftmaxLogistic2016-11-25 14:05 2588人阅读 评论(1)收藏举报本文章已收录于:分类: machine learning(49) 作者同类文章X版权声明:本文为博主原创转载 2016-11-28 11:57:33 · 897 阅读 · 0 评论 -
AI-CV-ML领域重要的会议及期刊
AI-CV-ML领域重要的会议及期刊会议期刊AAAI( Association for the Advance of Artificial Intelligence)AAAI ,英文全称是 Association for the Advance of Artificial Intelligence,该协会是人工智能领域的主要学术组织之一,其主办的年会(AAAI, The Nat...原创 2019-03-28 09:47:45 · 2059 阅读 · 0 评论