机器学习
文章平均质量分 87
H4ppyD0g
中科院某研究所在读学生,主要方向为系统/虚拟安全,博客记录平时学习过程中的笔记,不免参考各种文章资料(如有侵权请联系删除),也会存在一些知识误区,欢迎师傅们指正。另外设置了几个付费专栏和资源,都是花费好长时间找到整理的,收费仅作为整理资料的劳动收获(买奶茶钱),如果原作者认为侵权也请联系删除。
展开
-
猫狗分类,卷积神经网络CNN入门(pytorch实现)
卷积神经网络CNN入门训练,pytorch实现,无GPU,CPU实现。转载 2022-10-07 11:42:55 · 472 阅读 · 0 评论 -
pytorch深度学习听课笔记
文章目录相关知识点线性模型梯度下降1.梯度下降算法2.随机梯度下降相关知识点损失函数(loss) 计算方法、 均方误差(方差mean square error) 计算方法。注意区分loss是对一个样本,cost是对总体样本求平均值。 线性模型# 线性模型import numpy as npimport matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# 计算y_preddef原创 2021-11-07 14:38:46 · 142 阅读 · 0 评论 -
python machine learning basis
数据集构成:特征值+目标值机器学习算法分类(根据目标值)监督学习目标值:类别–>分类问题目标值:连续型数据–>回归问题无监督学习目标值:无...原创 2020-02-01 19:49:59 · 171 阅读 · 0 评论 -
[机器学习] 聚类算法
文章目录初识聚类算法聚类算法api初步聚类算法实现流程特征降维初识聚类算法聚类算法一种典型的无监督学习算法,主要用于将相似的样本自动归到-一个类别中。在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法。聚类算法与分类算法的区别聚类算法是无监督的学习算法,分类算法属于监督的学习算法。聚类算法api初步import matplotlib.pyplot as pltfrom sklearn.datasets原创 2020-08-29 12:02:41 · 136 阅读 · 0 评论 -
[机器学习] 集成学习
文章目录初识集成学习Bagging与随机森林Boosting初识集成学习通过建立几个模型来解决单一预测问题随机、有放回抽样Bagging与随机森林Bagging随机采样+学习+集成随机森林Bagging+决策树一次选取一个样本,有放回抽样,重复n次(有重复的样本)随机选取m个特征,m<< M, 建立决策树bagging集成优点bagging+决策树/线性回归/逻辑回归=bagging集成学习方法api使用-泰坦尼克号import pandas as pdimport原创 2020-08-29 12:02:31 · 139 阅读 · 0 评论 -
[机器学习] 决策树
文章目录初识决策树初识决策树决策树是一种树形结构,其中每个内部节点表示-个属性.上的判断,每个分支代表- 个判断结果的输出。熵是描述混乱程度的量度系统越有序,熵值越低;系统越混乱或分散,熵值越高最后每个叶节点代表-种分类结果,本质是一颗由多个判断节点组成的树。决策树划分依据-信息增益例如:ID3的分支方式信息增益:以某特征划分数据集前后的熵的差值。熵可以表示样本集合的不确定性,熵越大,样本的不确定性就越大。因此可以使用划分前后集合熵的差值来衡量使用当前特征对于样本集合D划分效果的好坏。信息原创 2020-08-29 12:02:13 · 379 阅读 · 0 评论 -
[机器学习] 逻辑回归
文章目录初识逻辑回归案例-肿瘤预测分类评估方法ROC曲线与AUC指标ROC曲线绘制初识逻辑回归逻辑回归最终的分类是通过属于某个类别的概率值来判断是否属于某个类别,并且这个类别默认标记为1(正例.另外的-一个类别会标记为0(方便损失计算)。—逻辑回归用于处理目标值只有两种情况流程是先通过回归计算出预测值,然后通过一个激活函数把预测值映射到[0,1]内的一个固定值。然后设定一个[0,1]的划分值,当预测值大于这个划分值时就是1,否则就是0.或者反之。案例-肿瘤预测import pandas as原创 2020-08-29 12:02:04 · 186 阅读 · 0 评论 -
[机器学习] 线性回归
初识线性回归线性回归是利用回归函数对一个或多个自变量和因变量之间关系进行建模的一种分析方法。只有一个自变量的情况称为单变量回归,多于一个自变量的情况叫多元回归。线性回归的分类线性关系非线性关系线性回归api初步from sklearn.linear_model import LinearRegressionx = [[80,86],[82,80],[85,78],[90,90],[86,82],[82,90],[78,80],[92,94]]y = [84.2,80.6,80.1,90,原创 2020-08-29 12:01:51 · 617 阅读 · 0 评论 -
[机器学习] K-近邻
初识k近邻算法k近邻算法又叫KNN算法如果一个样本在特征空间中的k个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别距离计算:计算两个样本之间的欧式距离KNN算法流程计算已知类别数据集中的点与当前点之间的距离按距离递增排序选取与当前点距离最少的k个点统计前k个点所在类别出现的频率返回前k个点出现频率最高的类别作为当前点的预测分类...原创 2020-08-29 12:01:36 · 229 阅读 · 0 评论