有趣的算法
文章平均质量分 82
介绍一些和生活中的知识,情感,行为有关的算法
图灵的猫.
给行业以ai,而不是给ai以行业
展开
-
「15」支持向量机Python实战篇——蓝瘦香菇到底有没有毒?
我们通过SVM的数学原理讲解了这个最常见的机器学习算法。这一篇我们用一个非常简单的python实战项目来练习一下SVM并加深理解。原创 2020-05-24 11:27:51 · 3657 阅读 · 1 评论 -
「14」支持向量机——我话说完,谁支持?谁反对?
1. 支持向量1.1 线性可分首先我们先来了解下什么是线性可分。在二维空间上,两类点被一条直线完全分开叫做线性可分。严格的数学定义是:1.2 最大间隔超平面从二维扩展到多维空间中时,将 d0 和 d1 完全正确地划分开的 y = wx + b 就成了一个超平面。为了使这个超平面更具鲁棒性,我们会去找最佳超平面,以最大间隔把两类样本分开的超平面,也称之为最大间隔超平面。两类样本分别分割在该超平面的两侧; 两侧距离超平面最近的样本点到超平面的距离被最大化了。..原创 2020-05-24 11:21:56 · 2966 阅读 · 0 评论 -
「13」朴素贝叶斯Python实战:计算打喷嚏的工人患病的概率
上一期文章:「12」你们啊,naive!——朴素贝叶斯谈笑录中,我们剖析了朴素贝叶斯算法的本质和特点以及贝叶斯学派的一些知识。这里我们用python代码进行Naive Bayes算的的实现。第1部分是计算打喷嚏的建筑工人患上新冠肺炎的概率,第2部分是上一期文章中提到的西瓜分类实战项目。实战项目一、计算打喷嚏的建筑工人患上新冠肺炎的概率有多大?class NBClassif...原创 2020-02-28 14:58:04 · 3730 阅读 · 2 评论 -
「10」民主投票法——KNN的秘密
KNN,全称是K-Nearest Neighbor,也就是最近邻算法。这个算法虽然没有雅典制度那么历史悠久,但也比我们想象的要古老。Cover 和 Hart 早在 1968 年就提出了最初的邻近算法,用于解决分类的问题。我们在前几期提到了分类问题的本质,大家可以回忆一下当作复习。它是所有机器学习分类算法中最简单的方法之一,如果你已经回忆了前几期的文章,那么一定会反应过来,它同时也可以被用来做回归算法。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。...原创 2020-02-14 21:04:45 · 2392 阅读 · 0 评论 -
「09」真损啊!——损失函数与极大似然估计
前言上期文章:「07」回归的诱惑:深入浅出逻辑回归中 ,我们介绍了逻辑回归的原理,组成和优缺点,并探讨了分类的本质含义。在这一期,我们会继续07的部分,从逻辑回归开始,引出机器学习中最重要的概念——参数学习。还记得我们的线性回归是如何学习直线方程参数的吗?最小二乘法(多元情况下叫做正规方程) 梯度下降法关于梯度下降,在之后的优化方法综述中会详细讲述,这里我们聚焦参数学习的本质—...原创 2020-02-01 17:02:19 · 4877 阅读 · 0 评论 -
「08」回归的诱惑:深入浅出逻辑回归(Python实战篇)
在上一篇文章「07」回归的诱惑:深入浅出逻辑回归里,我们详细解释了什么是分类算法以及逻辑回归、逻辑回归的特点,这一期给出实战案例的Python代码,供大家参考第一步 导入数据from collections import OrderedDictimport pandas as pd#数据集examDict={ '学习时间':[0.50,0.75,1.00,1.25...原创 2020-01-21 18:17:49 · 2055 阅读 · 0 评论 -
「05」回归的诱惑:一文读懂线性回归
前言从这一篇文章开始,就正式进入「美团」算法工程师带你入门机器学习系列的正文了,之前的几篇算是导读和预热,想必大家看的并不过瘾。从这里开始,我们将会以线性回归为起点,贯通回归方法在机器学习算法中所扮演的角色、具有的功能和使用的方法。说起回归,它是我们在高中时就接触过的内容。具体的,回归(Regression)是指研究一组随机变量(Y1 ,Y2 ,…,Yi)和另一组随机变量(X1,X2,…,......原创 2020-01-19 20:18:15 · 2567 阅读 · 1 评论 -
「03」机器学习、深度学习该怎样入门?
最后一步,自我实践,顾名思义就是通过代码将所学算法实现,现如今python和tensorflow的封装API以及各种库、包已经十分完善,我个人的建议是,除非是算法底层架构开发方向的人员,否则没有必要从0开始编写一个算法(比如在某本中文教材中,作者连numpy或pandas都不用),适当的借助工具,如可以让自己的学习经验更加的实用化,同时也加强对算法的理解。很多答案下的书单都很好,但并不适合所有人,如果你是数学专业,那么大多数书你并不用看,如果你和我一样是人文类专业,那么除了那些书,你还需要看很多。原创 2020-01-08 22:45:07 · 2670 阅读 · 0 评论 -
别怕,“卷积“其实很简单
首先给大家讲一个关于卷积的小故事:小明是杭州某互联网大厂的员工,每天996十分辛苦,但小明最近爱上了打台球,经常不在工位。这天,小明的主管让小明改一个需求,小明却到楼下找产品部小丽打台球去了,被主管发现,他非常气愤,扇了小明一巴掌(注意,这就是输入信号,脉冲)。于是小明脸上会渐渐地(贱贱地)鼓起来一个包,小明的脸就是一个系统,而鼓起来的包就是小明的脸对巴掌的响应。好,这样就和信号系统建立起来意义对应的联系。原创 2018-01-17 13:15:52 · 211394 阅读 · 32 评论 -
动态规划入门之最长公共子序列
如上图,给定的字符序列: {a,b,c,d,e,f,g,h},它的子序列示例: {a,c,e,f} 即元素b,d,g,h被去掉后,保持原有的元素序列所得到的结果就是子序列。S1的元素3 与 S2的元素5 不等,c[2,2] =max(c[1,2],c[2,1]),图中c[1,2] 和 c[2,1] 背景色为浅黄色。给定序列s1={1,3,4,5,6,7,7,8},s2={3,5,7,4,8,6,7,8,2},s1和s2的相同子序列,且该子序列的长度最长,即是LCS。原创 2018-02-05 22:09:17 · 1347 阅读 · 1 评论 -
优化算法中的鞍点与梯度下降
摘要:本文将讨论寻找凸路径( convex path )时可能会遇到的不同类型的临界点( critical points),特别是基于梯度下降的简单启发式学习方法,在很多情形下会使你在多项式时间内陷入局部最小值( local minimum ) 。凸函数比较简单——它们通常只有一个局部最小值。非凸函数则更加复杂。在这篇文章中,我们将讨论不同类型的临界点( critical points)翻译 2017-12-25 19:44:10 · 12115 阅读 · 1 评论 -
深入浅出BP神经网络(反向传播算法)
反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。其主要思想是:(1)将训练集数据输入到ANN的输入层,经过隐藏层,最后达到输出层并输出结果,这是ANN的前向传播过程;(2)由于ANN的输出结果与实际结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传转载 2018-01-10 20:01:13 · 2130 阅读 · 1 评论 -
有趣的算法(一):如何让有情人终成眷属
看过《非诚勿扰》的同学一定还记得节目中的相亲模式,当男嘉宾入场后会首先选择最喜欢的心动女生,然后在几轮“面试”后由最后亮灯的女生,也就是心仪男嘉宾的女生与男嘉宾一开始选择的心动女生做比较。有趣的是,有时候,留灯的女生即便是男嘉宾不喜欢的类型,很多时候也会被牵手,而也有女嘉宾在台上站了很多期节目,被优质的人翻号,却没有被所带走,到最后反而被一些很普通的男生牵手成功。现在,考虑将上述过程的选择次数增加至多次,并允许与女嘉宾人数(假设为N)相同的男嘉宾同时上台。原创 2018-01-19 13:15:12 · 1730 阅读 · 0 评论 -
时间复杂度与NP/NP难/NP完全问题的最简单理解法
我的机器学习教程「美团」算法工程师带你入门机器学习 已经开始更新了,欢迎大家订阅~任何关于算法、编程、AI行业知识或博客内容的问题,可以随时扫码关注公众号「图灵的猫」,加入”学习小组“,沙雕博主在线答疑~此外,公众号内还有更多AI、算法、编程和大数据知识分享,以及免费的SSR节点和学习资料。其他平台(知乎/B站)也是同名「图灵的猫」,不要迷路哦~什么是...转载 2018-01-19 17:44:27 · 8127 阅读 · 7 评论