学习-机器学习100天
a776995799
这个作者很懒,什么都没留下…
展开
-
学习《机器学习100天》第3天 多元线性回归
数据(前4行)是这样的: R&D Spend Administration Marketing Spend State Profit 165349.2 136897.8 471784.1 New York 192261.8 162597.7 151377.6 443898.5 California 19...原创 2019-01-10 15:13:56 · 234 阅读 · 0 评论 -
学习《机器学习100天》第17天 决策树
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code原项目这一天的任务:在Coursera开始深度学习的专业课程说明:由于机器学习相关的基础尚未完全掌握,决定接下来不完全按照原项目的计划来,根据原项目后面的,看了什么就记录什么。今天先看看后面的决策树。一、决策树是什么?监督学习算法...原创 2019-02-10 21:22:40 · 236 阅读 · 0 评论 -
学习《机器学习100天》第18天 统计学习理论的介绍
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code原项目这一天的任务:Bloomberg ML课程的第3课介绍了一些核心概念,如输入空间,动作空间,结果空间,预测函数,损失函数和假设空间。Bloomberg ML课程的第3课(b站地址https://www.bilibili.com/vid...原创 2019-02-11 10:49:03 · 249 阅读 · 0 评论 -
学习《机器学习100天》第25天 随机森林
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code随机森林:有监督 集成学习模型(建立很多决策树,再集成) 主要用于分类和回归随机森林与决策树的区别:随机森林中,查找根节点和分割特征节点的过程是随机进行的。决策树的构建方式: 1. 随机选取数据:训练集N个样本,有放回...原创 2019-02-22 15:52:56 · 265 阅读 · 0 评论 -
学习《机器学习100天》第21天 跳到复习线性代数(视频5-6)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务: 继续观看了4个视频,内容包括三维变换、行列式、逆矩阵、列空间、零空间和非方矩阵。B站播放列表在这里(https://www.bilibili.com/video/av6731067/?p=5)。 05 行...原创 2019-02-17 16:07:56 · 197 阅读 · 0 评论 -
学习《机器学习100天》第22天 跳到复习线性代数(视频7-8)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务:继续观看了3个视频,内容包括点积和叉积。B站播放列表在这里(https://www.bilibili.com/video/av6731067/?p=10)。 07 点积与对偶性点积:对应相乘,再相加。点积的几...原创 2019-02-18 20:23:00 · 152 阅读 · 0 评论 -
学习《机器学习100天》第26天 随机森林代码实现
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code 基本过程与第19天的决策树差不多,建立模型时调用的函数不同。导入需要的库:numpy、matplotlib.pyplot、pandas导入数据集:pandas.read_csv()将数据集拆分为训练集和数据集:从sklearn...原创 2019-02-24 13:39:11 · 258 阅读 · 0 评论 -
学习《机器学习100天》第30天 反向传播法演算 | 深度学习,第4章
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-CodeYoutube频道3Blue1Brown关于神经网络的第3部分,这个视频主要介绍了偏导数和反向传播法。B站视频在这里。(https://www.bilibili.com/video/av16577449?p=2)以下是视频笔记:...原创 2019-02-28 13:41:31 · 164 阅读 · 0 评论 -
学习《机器学习100天》第19天 决策树代码实现
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务:决策树的代码实现导入需要的库:numpy、matplotlib.pyplot、pandas导入数据集:pandas.read_csv()将数据集拆分为训练集和数据集:从sklearn.model_selection导入...原创 2019-02-14 11:44:17 · 220 阅读 · 0 评论 -
学习《机器学习100天》第23天 跳到复习线性代数(视频9-11)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务:观看了剩余的视频12到14,内容包括特征向量和特征值,以及抽象向量空间。 09 基变换空间中并没有坐标,坐标只是我们为了描述方便,加上去的j 10 特征向量与特征值特征值、特征向量的概念 ...原创 2019-02-19 22:09:43 · 151 阅读 · 0 评论 -
学习《机器学习100天》第31天 K-均值聚类
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code 转到无监督学习,并研究了聚类。可在作者网站查询。发现一个奇妙的动画有助于理解K-均值聚类。学习笔记 动画是关于,怎么把一些没有标记的点,分为各个簇,并调整簇中心位置,使划分更好。无监督学习聚类算法:把族群或数据点分...原创 2019-03-01 14:03:26 · 196 阅读 · 0 评论 -
学习《机器学习100天》第27天 什么是神经网络? | 深度学习,第1章
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-CodeYoutube频道3Blue1Brown中有精彩的视频介绍神经网络。这个视频提供了很好的解释,并使用手写数字数据集演示基本概念。B站视频在这里(https://www.bilibili.com/video/av15532370)。 ...原创 2019-02-25 21:53:07 · 334 阅读 · 0 评论 -
学习《机器学习100天》第28天 梯度下降法,神经网络如何学习 | 深度学习,第2章
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-CodeYoutube频道3Blue1Brown关于神经网络的第2部分,这个视频用有趣的方式解释了梯度下降法。推荐必须观看169.B站视频在这里。(https://www.bilibili.com/video/av16144388)以下是视频笔...原创 2019-02-26 16:37:41 · 175 阅读 · 0 评论 -
学习《机器学习100天》第32天 深入研究 | NUMPY
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code得到JK VanderPlas写的书《Python数据科学手册(Python Data Science HandBook)》,Jupyter notebooks在这里。(https://github.com/jakevdp/PythonData...原创 2019-03-03 16:57:39 · 216 阅读 · 0 评论 -
学习《机器学习100天》第29天 反向传播法究竟做什么? | 深度学习,第3章
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-CodeYoutube频道3Blue1Brown关于神经网络的第3部分,这个视频主要介绍了偏导数和反向传播法。B站视频在这里。(https://www.bilibili.com/video/av16577449) 以下是视频笔记:反向...原创 2019-02-27 13:23:15 · 247 阅读 · 0 评论 -
学习《机器学习100天》第16天 通过内核技巧实现支持向量机
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code原项目这一天的任务: 使用Scikit-Learn库实现了SVM算法以及内核函数,该函数将我们的数据点映射到更高维度以找到最佳超平面。一、sklearn中的SVM算法 数据标准化处理从sklearn.prepr...原创 2019-02-09 10:28:46 · 282 阅读 · 0 评论 -
学习《机器学习100天》第15天 朴素贝叶斯分类器(Naive Bayes Classifier)和黑盒机器学习(Black Box Machine Learning)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code原项目这一天的任务: 学习不同类型的朴素贝叶斯分类器同时开始Bloomberg的课程(https://bloomberg.github.io/foml/#home)。课程列表中的第一个是黑盒机器学习。它给出了预测函数,特征提取,...原创 2019-02-09 09:12:01 · 933 阅读 · 0 评论 -
学习《机器学习100天》第24天 微积分的本质 (视频1-5)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务: 完成上一播放列表后,YouTube推荐了新内容《微积分的本质》,今天看完了其中的3个视频,包括导数、链式法则、乘积法则和指数导数。B站播放列表在这里(https://www.bilibili.com/vide...原创 2019-02-21 14:53:06 · 608 阅读 · 0 评论 -
学习《机器学习100天》第4天 逻辑回归
逻辑回归的基础理论知识与上一节的线性回归区别:逻辑回归输出结果是离散的,线性回归输出结果是连续的。如判断邮件是否为垃圾邮件。假设首先使用线性回归的方法,得到的输出可能为任意值。想要实现逻辑回归,需要把输出变到0到1之间,所以用到sigmoid函数函数图像:输出总在0到1之间。逻辑回归的输出是离散值,如果是二分类,只有0和1两个状态,为了把sigmoid变换后的0到1之间...原创 2019-01-11 20:01:41 · 221 阅读 · 0 评论 -
学习《机器学习100天》第一天 数据预处理
github上的项目,跟着一起学习数据预处理 | 第1天用来练习的数据是这样的:Country Age Salary Purchased France 44 72000 No Spain 27 48000 Yes Germany 30 54000 No Spain 38 61000 ...原创 2019-01-07 22:56:12 · 227 阅读 · 0 评论 -
学习《机器学习100天》第5天 逻辑回归
逻辑回归,确定决策边界衡量逻辑回归的输出好坏,损失函数常用交叉熵(参考1)添加正则项,控制过拟合利用梯度下降法,最小化损失函数参考:1.关于交叉熵的个人理解https://blog.csdn.net/weixin_42078618/article/details/81736329 ...原创 2019-01-13 15:16:07 · 130 阅读 · 0 评论 -
学习《机器学习100天》第6天 逻辑回归
github上的项目,跟着一起学习逻辑回归的代码实现需要处理的问题:根据用户的年龄和薪资,预测是否买车。 步骤1 数据预处理导入库导入数据集分为训练集和测试集特征缩放:sklearn.preprocessing的StandardScaler 步骤2 逻辑回归模型将逻辑回归应用于训练集:sklearn.linear_model的LogisticRegr...原创 2019-01-14 21:35:22 · 247 阅读 · 0 评论 -
学习《机器学习100天》第2天 简单线性回归
问题:根据学生的学习时间,预测分数1.数据预处理2.用训练集训练简单线性回归模型sklearn.linear_model的LinearRegressionfit(X_train, Y_train)方法3.预测结果predict(X_test)4.可视化plt.scatter()散点图plt.plot()直线plt.show()...原创 2019-01-09 12:09:43 · 201 阅读 · 0 评论 -
学习《机器学习100天》第7天 k近邻(KNN)
github上的项目,跟着一起学习k近邻是分类算法,也可用于回归。k近邻:对于要预测的输入,参考周围k个邻居的输出,决定自己的输出。选择距离自己最近的k个邻居,其中的距离常用欧式距离来衡量。例子:红色和绿色的星星是训练集,蓝色边框中空的星星是待预测的,假设k=3,距离最近的3个邻居中,2个是绿色,一个是红色,所以预测的最终输出为绿色。...原创 2019-01-15 15:44:45 · 177 阅读 · 0 评论 -
学习《机器学习100天》第8天 逻辑回归背后的数学
逻辑回归背后的数学 | 第8天github上的项目,跟着一起学习Logistic回归的详细描述,原文在这里(打开需要能访问谷歌的环境)https://towardsdatascience.com/logistic-regression-detailed-overview-46c4da4303bc翻译一下(公式推导的部分不太理解,先翻译个大概):逻辑回归模型示意图: 输入...翻译 2019-01-21 14:29:12 · 231 阅读 · 0 评论 -
学习《机器学习100天》第11天 K近邻法(k-NN)
github上的项目,跟着一起学习K近邻法(k-NN)实现首先回顾一下k近邻算法,根据k个邻居的信息,决定预测值。 代码实现:导入相关库导入数据集划分数据集为训练集和测试集特征缩放使用K-NN对数据集数据进行训练 从sklearn.neighbors导入KNeighborsClassifier classifier = KNeighb...原创 2019-02-01 21:56:19 · 224 阅读 · 0 评论 -
学习《机器学习100天》第12天 支持向量机SVM
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code1、什么是SVM有监督可用于分类和回归,主要用于分类根据特征值,构建n维空间,数据点投影到该空间2、数据如何分类找到一个超平面3、如何定义最佳超平面最大化一个距离,这个距离是到超平面最近的点的距离4、线性和非线性...原创 2019-02-02 09:09:28 · 227 阅读 · 0 评论 -
学习《机器学习100天》第9天 支持向量机(SVM)
github上的项目,跟着一起学习直观了解SVM是什么以及如何使用它来解决分类问题。(1)什么是SVM?SVM(Support Vector Machine):支持向量机(2)SVM是用来干什么的?找到一个超平面,用来解决分类问题。最大化支持向量到超平面的距离。根据问题是否线性可分,又用到了核函数 参考:SVM理解 https://blog.csdn.net...原创 2019-01-28 19:46:50 · 189 阅读 · 2 评论 -
学习《机器学习100天》第10天 支持向量机和K近邻法
github上的项目,跟着一起学习“了解更多关于SVM如何工作和实现knn算法的知识。” 1. “支持向量机“中的支持向量下图中两条虚线上的点,就是支持向量 2. 核函数核函数(Kernel trick),这一概念经常与SVM搭配出现,但并非SVM特有。在一个空间中,模型是非线性可分的,需要把数据映射到另一个空间,线性可分。此时需要借助核函数。 参考...原创 2019-01-29 15:39:47 · 322 阅读 · 0 评论 -
学习《机器学习100天》第20天 跳到复习线性代数(视频0-4)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code这一天的任务: 发现YouTube一个神奇的频道3Blue1Brown,它有一个播放列表《线性代数的本质》。看完了4个视频,包括了向量,线性组合,跨度,基向量,线性变换和矩阵乘法。B站播放列表在这里(https://www....原创 2019-02-15 22:06:30 · 193 阅读 · 0 评论 -
学习《机器学习100天》第13天 支持向量机(SVM)
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-CodeSVM实现导入库导入数据拆分为训练集和数据集特征量化 从sklearn.preprocessing导入StandardScaler sc=StandardScale() 训练集=sc.fit_tra...原创 2019-02-06 17:17:36 · 196 阅读 · 0 评论 -
学习《机器学习100天》第14天 支持向量机(SVM)的实现
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code原项目这一天给出的是代码,和第13天实现的代码相同,那么我今天就继续从理论上理解一下SVM。找到一篇解释SVM的文章。地址是http://www.blogjava.net/zhenandaci/archive/2009/02/13/2545...原创 2019-02-07 11:56:29 · 190 阅读 · 0 评论 -
学习《机器学习100天》第33天 深入研究 | NUMPY
github上的项目,跟着一起学习项目地址 https://github.com/MLEveryday/100-Days-Of-ML-Code第2章: 聚合, 比较运算符和广播。代码如下:2.4 聚合:最小值、最大值和其他值2.5 数组的计算:广播2.6 比较、掩码和布尔运算读书笔记:2.4、聚合:最小值、最大值和其他值数据的统计值:均值和标准差,求和、乘积、中位数、最...原创 2019-03-10 16:41:04 · 208 阅读 · 0 评论