![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Sophia&Anna
I Love Python & C ! 咿呀咿呀哟~
展开
-
机器学习——6.模型训练案例: 预测儿童神经缺陷分类TD/ADHD
案例目的:根据已有的一份EXCEL标注数据,训练出合适的模型来预测儿童神经缺陷分类。原创 2024-05-10 21:41:54 · 334 阅读 · 1 评论 -
机器学习——5.模型训练案例: 乳腺癌预测
通过已标注的数据,训练出模型来预测患者是否有患乳腺癌。数据转化为Pytorch张量。原创 2024-05-07 20:26:50 · 404 阅读 · 0 评论 -
机器学习——4.案例: 简单线性回归求解
案例目的:寻找一个良好的函数表达式,该函数表达式能够很好的描述上面数据点的分布,即对上面数据点进行拟合。原创 2024-05-07 10:32:25 · 296 阅读 · 0 评论 -
机器学习——2.损失函数loss
损失函数就是计算预测结果和实际结果差距的函数,机器学习的过程就是试图将损失函数的值降到最小。原创 2024-05-06 17:29:23 · 341 阅读 · 1 评论 -
机器学习—1.快速入门(更新中)
关系:label=f(feature) ,好比: 经济损失=f(地震等级)feature,自变量(输入)label,因变量(输出)原创 2024-04-09 09:12:34 · 300 阅读 · 0 评论 -
线性回归——基本使用和特点分析
线性回归的原型:y=wx+b代价函数:最小二乘法构造(y-y')**2.sum()目标函数:对代价函数求导=0,找全局最小值对应W值原创 2022-12-18 17:06:33 · 908 阅读 · 1 评论 -
K近邻算法——sklearn:预测年收入>50K
sklearn:预测年收入>50K原创 2022-12-13 22:58:01 · 424 阅读 · 0 评论 -
K近邻算法——sklearn:预测鸢尾花分类&&样本集拆分
实现功能:根据鸢尾花花瓣和花萼的长宽来预测鸢尾花所属的分类。原创 2022-12-10 23:26:53 · 506 阅读 · 0 评论 -
K近邻算法——sklearn:预测电影分类
【代码】K近邻算法——sklearn:预测电影分类原创 2022-12-10 16:04:44 · 707 阅读 · 0 评论 -
线性回归——简单介绍与使用
定义:利用回归方程(函数)对一个或多个自变量(特征值)和因变量(目标值)之前关系进行建模的一种分析方式。特点:只有一个自变量的情况称为:单变量回归;多余一个自变量的情况称为:多元回归。原理:每条数据有n个特征,每个特征对应着自己的权重值,与权重的乘积再加上一个偏置值,这个就是线性回归模型。'''逻辑步骤:1、获取数据集2、数据基本处理3、特征工程4、机器学习5、模型评估'''from sklearn.linear_model import LinearRegressi...原创 2022-02-16 23:06:58 · 1309 阅读 · 0 评论 -
K近邻算法——sklearn:划分数据集
目前我们训练数据的过程:将所有的数据都作为训练数据,训练出一个模型,每当得到一个新的数据,则计算新数据到训练数据的距离,预测得到新数据的类别。比如:银行发放信用卡,银行要想得到客户的信用等级,需要跟踪用户两三年时间来收集用户信息,才能得到,如果我们将两三年的数据全部作为训练集,当新客户来临时,我们又需要等待两三年,才能知道新用户的真实label,所以在短期内很难根据真实label判断模型好坏,进而无法改进模型。将所有数据集全部用于训练,这种做法是不可取的。那我们该怎么做呢?将数据中的70%-原创 2022-02-12 16:43:49 · 942 阅读 · 0 评论 -
K近邻算法——简单分类实现
定义:在特征空间中,如果一个样本附近的 k个 最近( 即特征空间中最邻近 )样本的大多数属于某一个类别,则该样本也属于这个类别。特点:没有模型的算法 为了和其他算法统一,可以认为数据集就是模型本身( sklearn 就是参照这样的方式设计的 ) 通过查看周边最多的分类, 从而决定数据最终情况的算法。代码编辑步骤:获取数据集 训练 输入新的样本 预测直接享用代码吧:import numpy as npimport matplotlib.pyplot as pltf..原创 2022-02-12 00:39:40 · 787 阅读 · 0 评论