NumPy
玩世不恭的Coder
爱专研,爱分享,热衷于各种技术,学习之余喜欢下象棋、听音乐、聊动漫,未来也许会当一名Coder(我很菜,但我会坚持)。希望借此一亩三分地记录自己的成长过程以及生活点滴,也希望能结实更多志同道合的朋友。有问题,欢迎大家随时给我留言和发邮件(26647879@qq.com)~~~
展开
-
深度学习炼丹术 —— 与神经网络的初次邂逅:熟悉基本结构、设计和实现
在正式介绍神经网络之前,我们先对上篇文章中的感知器内容做个简短的回顾:我们首先介绍了什么是感知器,直观上看到了感知器的基本结构以及能做些什么。其次,通过感知器详细讲解了与门的实现原理,并通过数学公式化(梯度下降算法)来剖析了参数的训练过程,之后以代码形式实现了与门的逻辑电路,最终同理得到与非门和或门的实现结果。此外,在第二节的最后,我们还抛出了单层感知器无法解决亦或门的问题,从而为第三节提供“引子”。最后,我们发现其实可以通过逻辑电路组合的形式来实现异或门,在模型结构中,也就是以一种多层感知器来解决的亦或原创 2020-12-24 09:42:28 · 398 阅读 · 0 评论 -
深度学习炼丹术 —— Taoye不讲码德,又水文了,居然写感知器这么简单的内容
手撕机器学习系列文章就暂时更新到此吧,目前已经完成了支持向量机SVM、决策树、KNN、贝叶斯、线性回归、Logistic回归,其他算法还请允许Taoye在这里先赊个账,后期有机会有时间再给大家补上。更新至此,也是收到了部分读者的好评。虽然不多,但还是非常感谢大家的支持,希望每一位阅读过的读者都能够有所收获。该系列文章的全部内容都是Taoye纯手打,也是参考了不少书籍以及公开资源,系列总字数在15W左右(含源码),总页数为138,后期会再慢慢填补,更多的技术文章可以来访Taoye的公众号:玩世不恭的Co原创 2020-12-18 21:16:03 · 860 阅读 · 2 评论 -
《Machine Learning in Action》—— Taoye给你讲讲Logistic回归是咋回事
在手撕机器学习系列文章的上一篇,我们详细讲解了线性回归的问题,并且最后通过梯度下降算法拟合了一条直线,从而使得这条直线尽可能的切合数据样本集,已到达模型损失值最小的目的。在本篇文章中,我们主要是手撕Logistic回归,这个在李航老师的《统计学习方法》一书中也叫做为逻辑斯谛回归。听到回归一词,有的读者可能会想,上一篇线性回归求解的是拟合问题,这篇文章手撕的是Logistic回归,会不会也是一个拟合问题?只不过使用到的算法原理不同而已,而求解的问题是一致的???其实不然,Logistic回归模型是一种广义原创 2020-12-07 17:04:26 · 349 阅读 · 0 评论 -
《Machine Learning in Action》—— 浅谈线性回归的那些事
《Machine Learning in Action》—— 浅谈线性回归的那些事手撕机器学习算法系列文章已经肝了不少,自我感觉质量都挺不错的。目前已经更新了支持向量机SVM、决策树、K-近邻(KNN)、贝叶斯分类,读者可根据以下内容自行“充电”(持续更新中):《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM: https://www.zybuluo.com/tianxingjian/note/1755051《Machine Learning in A原创 2020-12-05 14:46:02 · 267 阅读 · 0 评论 -
《Machine Learning in Action》—— 白话贝叶斯,“恰瓜群众”应该恰好瓜还是恰坏瓜
概率论,可以说是在机器学习当中扮演了一个非常重要的角色了。Taoye对概率论知识的掌握目前也还仅仅只是停留在本科期间所接触到的,而且还都已经忘了不少。快速的复习回顾一下之后,用来理解机器学习中的贝叶斯算法,还是足够的。手撕机器学习系列文章目前已经更新了支持向量机SVM、决策树、K-近邻(KNN),现在我们来玩玩贝叶斯算法,其他机器学习系列文章可根据自己需求来食用(持续更新中):《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM: https://www.z原创 2020-11-30 20:04:55 · 695 阅读 · 0 评论 -
《Machine Learning in Action》—— 女同学问Taoye,KNN应该怎么玩才能通关
《Machine Learning in Action》—— 女同学问Taoye,KNN应该怎么玩才能通关女同学问Taoye,KNN应该怎么玩才能通关???某问得,给这位妮子安排上!这篇是机器学习系列文章所涉及到的第六篇文章了,前面已经介绍过了支持向量机SVM以及决策树算法,一个躲在小房间里认真阅读过的读者应该对他们都有了一定的认识,算法的过程和原理也都大致了解了。这篇文章我们来看看K-近邻(KNN)算法,关于KNN算法,由于比较的简单,没有SVM那么复杂的公式和过程,所以会肝一篇文章来结束。更多机原创 2020-11-26 15:35:50 · 1094 阅读 · 1 评论 -
《Machine Learning in Action》—— 剖析支持向量机,优化SMO
《Machine Learning in Action》—— 剖析支持向量机,优化SMO薄雾浓云愁永昼,瑞脑销金兽。愁的很,上次不是更新了一篇关于支持向量机的文章嘛,《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM。虽然效果还算不错,数据集基本都能够分类正确,模型训练效率的话也还说的过去,但这是基于我们训练样本数据集比较少、迭代次数比较少的前提下。假如说我们数据集比较大,而且还需要迭代不少次数的话,上一篇文章中使用到的SMO算法的效率可就不敢恭维了,训练原创 2020-11-16 17:02:00 · 236 阅读 · 1 评论 -
《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM
《Machine Learning in Action》—— 剖析支持向量机,单手狂撕线性SVM前面在写NumPy文章的结尾处也有提到,本来是打算按照《机器学习实战 / Machine Learning in Action》这本书来手撕其中代码的,但由于实际原因,可能需要先手撕SVM了,这个算法感觉还是挺让人头疼,其中内部太复杂了,涉及到的数学公式太多了,也涉及到了许多陌声的名词,如:非线性约束条件下的最优化、KKT条件、拉格朗日对偶、最大间隔、最优下界、核函数等等,天书或许、可能、大概就是这样的吧。记原创 2020-11-14 22:40:35 · 376 阅读 · 2 评论 -
print( “Hello,NumPy!“ )
print( "Hello,NumPy!" )学习痛苦啊,今天学,明天丢。这种天气,还是睡觉最舒服了。咱说归说,闹归闹,但还是得学才行啊。之前在学习的过程中一直都有记录笔记的习惯,但笔记质量可不敢恭维,大多都未曾整理,不过拿来复习倒是个不错的选择。自打接触Python以来,写的最多的就是爬虫了,什么网络小说啊,虚拟游戏币啊,考试题库啊之类的都有写过,也帮别人爬过不少网站公开数据。之前也整理过一篇爬虫相关的文章(太懒了,才一篇,之后有机会有时间,再整理出来吧):网络爬虫之页面花式解析再之后的话原创 2020-11-08 08:08:19 · 355 阅读 · 1 评论