机器学习Machine Learning
文章平均质量分 95
在这里,我会将我所有的机器学习的项目和学习过程都放在这里,欢迎大家和我一起学习,也指正一下我哦。
风信子的猫Redamancy
在校本科大学生 B站up小白风信子的猫Redamancy 个人博客地址: https://kedreamix.github.io/
2022第十三届蓝桥杯PythonB组省一等奖,以及国赛一等奖
2022年第十二届MathorCup高校数学建模挑战赛 研究生组 二等奖
对计算机视觉,人工智能,以及机器学习等方面感兴趣
放弃不难 但坚持一定很酷
成功的法则极为简单,但简单并不代表容易
希望自己在这条路上,不孤单,不言弃,不言败
Stay Hungry,Stay Foolish
有时候没有及时回私信等等,可以发邮件咨询,1016617094@qq.com,你们的问题我都会认真看和回答的
展开
-
机器学习之路 The Road To Machine Learning
The Road to Machine LearningThe Road to Machine Learning吴恩达机器学习课程练习 Exercise机器学习实战项目 Project学习心得 Note吴恩达机器学习课程练习 Exerciseex1 Linear Regressionex2 Logistic Regressionex3 Multi-class Classfication and Neural Networks机器学习实战项目 Project泰坦尼克号生存预测 Titan原创 2021-03-11 14:18:22 · 19102 阅读 · 8 评论 -
【手写算法实现】 之 KNN K近邻算法
【手写算法实现】 之 KNN K近邻算法k-近邻(k-Nearest Neighbors) 的思想是给定测试样本,基于某种距离度量(⼀般使⽤欧⼏⾥德距离) 找出训练集中与其最靠近的kkk 个训练样本,然后基于这kkk 个“邻居” 的信息来进⾏预测(“物以类聚”)。算法步骤:可见,决定了kkk 近邻模型的三个基本要素——距离度量、k 值的选择、分类决策规则。距离度量在KNN中,使用不同的距离度量,所得到的最近邻点是不一样的。...原创 2022-08-31 12:00:00 · 5427 阅读 · 0 评论 -
神奇的streamlit (哇 原来深度学习还可以这样玩)
你是否还是为不懂深度学习而烦恼,你是否不知道不同的深度学习参数有什么区别,你是否还是思考什么优化器比较好,你是否不太知道激活函数和损失函数的选择which better,你是否还在思考要去哪里找代码并且去在编译器上跑出一个好丑的结果,那就快看Streamlit,他可能让本身你不懂机器学习的同学也能测试出很好的结果哦,体验深度学习的魅力。原创 2021-12-08 13:34:11 · 8600 阅读 · 2 评论 -
sklearn集成学习之VotingClassifier
在机器学习中,我们可以对KNN、逻辑回归、SVM、决策树、神经网络等预测的结果进行投票,少数服从多数最终决定预测结果。在sklearn中提供了一个Voting Classifier的方法进行投票。这是属于集成学习的一种。Voting Classifier分为Hard和Soft两种方式。原创 2021-12-01 09:08:24 · 9691 阅读 · 0 评论 -
李航统计学习方法 Chapter6 最大熵模型
第6章 逻辑斯蒂回归和最大熵模型逻辑斯谛回归(LR)是经典的分类方法1.逻辑斯谛回归模型是由以下条件概率分布表示的分类模型。逻辑斯谛回归模型可以用于二类或多类分类。P(Y=k∣x)=exp(wk⋅x)1+∑k=1K−1exp(wk⋅x),k=1,2,⋯ ,K−1P(Y=k | x)=\frac{\exp \left(w_{k} \cdot x\right)}{1+\sum_{k=1}^{K-1} \exp \left(w_{k} \cdot x\right)}, \quad k=1,2, \cd原创 2021-07-18 23:52:09 · 1543 阅读 · 1 评论 -
李航统计学习方法 Chapter6 逻辑斯蒂回归
第6章 逻辑斯蒂回归和最大熵模型逻辑斯谛回归(LR)是经典的分类方法1.逻辑斯谛回归模型是由以下条件概率分布表示的分类模型。逻辑斯谛回归模型可以用于二类或多类分类。P(Y=k∣x)=exp(wk⋅x)1+∑k=1K−1exp(wk⋅x),k=1,2,⋯ ,K−1P(Y=k∣x)=exp(wk⋅x)1+∑k=1K−1exp(wk⋅x),k=1,2,⋯ ,K−1P(Y=k | x)=\frac{\exp \left(w_{k} \cdot x\right)}{1+\sum_{k=1}^{K-1}原创 2021-07-17 16:55:22 · 1164 阅读 · 1 评论 -
李航统计学习方法 Chapter5 决策树
第5章 决策树1.分类决策树模型是表示基于特征对实例进行分类的树形结构。决策树可以转换成一个if-then规则的集合,也可以看作是定义在特征空间划分上的类的条件概率分布。2.决策树学习旨在构建一个与训练数据拟合很好,并且复杂度小的决策树。因为从可能的决策树中直接选取最优决策树是NP完全问题。现实中采用启发式方法学习次优的决策树。决策树学习算法包括3部分:特征选择、树的生成和树的剪枝。常用的算法有ID3、C4.5和CART。3.特征选择的目的在于选取对训练数据能够分类的特征。特征选择的关键是其准则。常原创 2021-07-16 15:56:05 · 1210 阅读 · 0 评论 -
李航统计学习方法 Chapter4 朴素贝叶斯法
如果想了解更多的知识,可以去我的机器学习之路 The Road To Machine Learning。原创 2021-07-13 16:32:38 · 1263 阅读 · 5 评论 -
李航统计学习方法 Chapter3 k近邻法
如果想了解更多的知识,可以去我的机器学习之路 The Road To Machine Learning通道第3章 k近邻法1.kkk近邻法是基本且简单的分类与回归方法。kkk近邻法的基本做法是:对给定的训练实例点和输入实例点,首先确定输入实例点的kkk个最近邻训练实例点,然后利用这kkk个训练实例点的类的多数来预测输入实例点的类。2.kkk近邻模型对应于基于训练数据集对特征空间的一个划分。kkk近邻法中,当训练集、距离度量、kkk值及分类决策规则确定后,其结果唯一确定。3.kkk近邻法三要素:距离度原创 2021-04-30 20:31:38 · 13655 阅读 · 1 评论 -
李航统计学习方法 Chapter2 感知机
如果想了解更多的知识,可以去我的机器学习之路 The Road To Machine Learning通道1.感知机是根据输入实例的特征向量xxx对其进行二类分类的线性分类模型:f(x)=sign(w⋅x+b)f(x)=\operatorname{sign}(w \cdot x+b)f(x)=sign(w⋅x+b)感知机模型对应于输入空间(特征空间)中的分离超平面w⋅x+b=0w \cdot x+b=0w⋅x+b=0。2.感知机学习的策略是极小化损失函数:minw,bL(w,b)=−∑xi∈Myi(原创 2021-04-22 15:23:06 · 7916 阅读 · 3 评论 -
李航统计学习方法 Chapter1 统计学习方法概论
第1章 统计学习方法概论1.统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行分析与预测的一门学科。统计学习包括监督学习、非监督学习、半监督学习和强化学习。2.统计学习方法三要素——模型、策略、算法,对理解统计学习方法起到提纲挈领的作用。3.本书主要讨论监督学习,监督学习可以概括如下:从给定有限的训练数据出发, 假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给训练数据及未知测试数据在给定评价标准意义下有最准确的预测。4.原创 2021-04-21 19:25:16 · 8016 阅读 · 2 评论 -
GAN (生成对抗网络) 手写数字图片生成
GAN (生成对抗网络) 手写数字图片生成文章目录GAN (生成对抗网络) 手写数字图片生成Discriminator NetworkGenerator Network简单版本的生成对抗网络判别器 Discriminator生成器 Generator超参数设置训练网络生成图片这种训练方式定义了一种全新的网络结构,就是生成对抗网络,也就是 GANs。这一部分,我们会形象地介绍生成对抗网络,以及用代码进行实现,而在书中会更加详细地介绍 GANs 的数学推导。根据这个名字就可以知道这个网络是由两部分组成的,原创 2021-07-02 14:08:30 · 2764 阅读 · 0 评论 -
GAN 系列的探索与pytorch实现 (数字对抗样本生成)
GAN 系列的探索与pytorch实现 (数字对抗样本生成)文章目录GAN 系列的探索与pytorch实现 (数字对抗样本生成)GAN的简单介绍生成对抗网络 GAN 的基本原理大白话版本非大白话版本数字对抗样本产生步骤1:用`LeNet网络`完成手写数字识别任务。LeNet 网络数据集的下载和预处理Image displayingpytorch 搭建LeNetLetNet 训练超参数的设置训练及测试模型可视化误差曲线,准确率曲线结果可视化,查看每一类的准确率模型的保存与加载步骤2:生成针对该网络的对抗样本原创 2021-07-02 12:49:33 · 2244 阅读 · 7 评论 -
万万想不到 10行代码搞定一个决策树
01决策树模拟实验文章目录01决策树模拟实验要求决策树简单介绍产生数据集划分训练集和测试集生成决策树Cross-Validation法可视化决策树10行代码搞定决策树要求这是一个简单的实验,要求也特别简单产生数据集:使用某种随机生成器产生10万个101维向量(每个分量非0即1);其中每个向量的1-100维是条件属性,第101维是决策属性。将数据集按照8:2随机划分为训练集(80%)和测试集(20%)请使用sklearn或weka分别以决策树深度为1、2、3、…、15完成训练集合原创 2021-06-17 18:24:39 · 1743 阅读 · 12 评论 -
手写数字识别 Digit Recognizer
手写数字识别 Digit Recognizer在这次Machine Learning中,我做一个比较经典的手写数字识别的一个项目,巩固一下自己所学的知识,也带领大家进入神经网络的时代,神经网络可以在这个分类任务上大展身手,万物皆可卷积。如果想了解更多的知识,可以去我的机器学习之路 The Road To Machine Learning通道目录OverView 项目概述Data Description 数据描述1. Introduction 项目介绍2. Data preparation 数据预处理.原创 2021-06-05 01:22:06 · 11363 阅读 · 9 评论 -
VGG 系列的探索与pytorch实现 (CIFAR10 分类问题) - Acc: 92.58 % (一文可通VGG + pytorch)
VGG首先就先简单的介绍一些VGG,VGVGG16模型VGG模型Oxford的Visual Geometry Group的组提出的,这个网络是在ILSVRC 2014上进行相关的工作,在ILSVRC 2014中超过Alex Net网络,拿到了当时分类项目的top 2 和 定位项目的top 1,VGGNet的拓展性很强,迁移到其他图片数据上的泛化性非常好。从此VGG进入了我们的视野,主要证明了增加网络的深度能够在一定程度上影响了网络最终的性能。VGG net可以说是从Alex-net发展而来的网络,V原创 2021-05-20 14:40:27 · 14482 阅读 · 4 评论 -
一文看懂「生成对抗网络 - GAN」基本原理+10种典型算法+13种应用
生成对抗网络 – Generative Adversarial Networks | GAN文章目录GAN的设计初衷生成对抗网络 GAN 的基本原理GAN的优缺点10大典型的GAN算法GAN 的13种实际应用百度百科+维基百科扩展阅读生成对抗网络 – GAN 是最近2年很热门的一种无监督算法,他能生成出非常逼真的照片,图像甚至视频。我们手机里的照片处理软件中就会使用到它。本文将详细介绍生成对抗网络 – GAN 的设计初衷、基本原理、10种典型算法和13种实际应用。 GAN的设计初衷一句话来概括 .转载 2021-04-05 19:41:04 · 43154 阅读 · 6 评论 -
监督学习之分类学习:支持向量机
监督学习之分类学习:支持向量机如果想了解更多的知识,可以去我的机器学习之路 The Road To Machine Learning通道Introduction分类学习是最为常见的监督学习问题,并且其中的经典模型也最为广泛地被应用。其中,最基础的便是二分类(Binary Classification) 问题,即判断是非,从两个类别中选择一个作为预测结果;除此之外还有 多类分类(Multiclass Classification) 的问题,即在多于 两个类别中选择一个;甚至还有多标签分类(Multi-l原创 2021-04-30 00:26:57 · 14440 阅读 · 0 评论 -
监督学习之分类学习:线性分类器
监督学习之分类学习Introduction分类学习是最为常见的监督学习问题,并且其中的经典模型也最为广泛地被应用。其中,最基础的便是**二分类(Binary Classification)问题,即判断是非,从两个类别中选择一个作为预测结果;除此之外还有多类分类(Multiclass Classification)**的问题,即在多于 两个类别中选择一个;甚至还有多标签分类(Multi-label Classification)问题,与上述二分类以及多类分类问题不同,多标签分类问题判断一个样本是否同时属于原创 2021-04-29 18:52:33 · 14920 阅读 · 1 评论 -
PYTHON机器学习基础(初学机器学习者的福音)
Introduction从现在开始,我会将用大量的实例和数据,着重介绍两类最为广泛使用的机器学习模型(监督学习经典模型与无监督学习经典模型)的使用方法、性能评价指标以及优缺点对于每一类经典模型,都将从模型简介、数据描述、编程实践、性能评测以及特点分析5个角度分别进行阐述监督学习经典模型“机器学习中监督学习模型的任务重点在于,根据已有经验知识对未知样本的目标/标记进行预测。根据目标预测变量的类型不同,我们把监督学 习任务大体分为分类学习与回归预测两类。”尽管如此,我们仍然可以对它们的共同点进行归纳,原创 2021-04-29 17:35:43 · 14090 阅读 · 5 评论 -
PCA的数学原理
PCA的数学原理PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。当然我并不打算把文章写成纯数学文章,而是希望用直观和易懂的方式叙述PCA的数学原理,所以整个文章不会引入严格的数学推导.原创 2021-04-02 15:54:23 · 7877 阅读 · 0 评论 -
机器学习之三:降维技术
机器学习之三:降维技术1. 基本概念机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。2. 降维的作用降低时间和空间复杂度节省了提取不必要特征的开销去掉数据集中夹杂的噪声较简单的模型在小数据集上有更强的鲁棒性当数据能有较少的原创 2021-03-11 14:17:03 · 8179 阅读 · 0 评论 -
机器学习之二:回归分析
机器学习之二:回归分析1. 基本概念我们首先了解一下关于回归的基本概念。因变量(dependent variable)是函数中的专业名词,函数关系式中,某些特定的数会随另一个(或另几个)会变动的数的变动而变动,就称为因变量。如:Y=f(X)。此式表示为:Y随X的变化而变化。Y是因变量,X是自变量。因变量(dependent variable)是函数中的专业名词,函数关系式中,某些特定的数会随另一个(或另几个)会变动的数的变动而变动,就称为因变量。如:Y=f(X)。此式表示为:Y随X的变化而变化。Y原创 2021-03-10 21:13:10 · 9600 阅读 · 0 评论 -
机器学习之一:什么是机器学习?
机器学习之一:什么是机器学习?1. 什么是机器学习?长期以来众说纷纭,Langley(1996)定义机器学习为:“机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能”。Mitchell(1997)在《Machine Learning》中写道:“机器学习是计算机算法的研究,并通过经验提高其自动进行改善”。Alpaydin(2004)提出自己对机器学习的定义:“机器学习是用数据或以往的经验,来优化计算机程序的性能标准”。Drew Conway在《Mac.原创 2021-03-10 18:21:56 · 8445 阅读 · 0 评论 -
机器学习实战四:好事达保险索赔预测 Allstate Claims Severity (xgboost)
好事达保险索赔预测 Allstate Claims Severity (xgboost)在这次Machine Learning中,我用了一个在学校做的一个项目来进行实战,当时老师给的数据还是比较小的,但是也还好哈哈哈,当然这个也在kaggle上有一个competition - > Allstate Claims Severity在这次中,我希望我能学习到xgboost的算法,这个多次在kaggle斩获第一的算法,希望这次以后,能对xgboost有更加清晰的认识,也希望能在之后的实战中能得到更好的.原创 2021-02-04 11:58:22 · 10572 阅读 · 8 评论 -
机器学习实战三: 预测汽车油耗效率 MPG
预测汽车油耗效率 MPG这次做一个简单的线性回归的实验,用来预测汽车的油耗效率 MPG,让我们通过这次实验,更加清晰的了解一下LinearRegression,如果想更加清晰的了解的话,可以看看吴恩达机器学习ex1 Linear Regression (python)目录Read In Data探究数据模型拆分训练集和测试集单变量线性回归搭建线性回归模型可视化结果训练集测试集模型评价多变量线性回归模型模型得分可视化Read In Data我们先读入数据,其中,这里面一个有九列,他们分别都有对应的意.原创 2021-02-03 02:01:36 · 14249 阅读 · 13 评论 -
机器学习实战二:波士顿房价预测 Boston Housing
波士顿房价预测 Boston housing这是一个波士顿房价预测的一个实战,上一次原创 2021-01-27 21:37:13 · 70127 阅读 · 36 评论 -
机器学习实战一:泰坦尼克号生存预测 Titantic
这是我在kaggle上找到的一个泰坦尼克号的生存的预测案例希望能用它来进行我的学习与实践,从这里开始入门Machine Learning也希望在这里,开始我的kaggle之旅文章目录活动背景活动背景 The Challenge The sinking of the Titanic is one of the most infamous shipwrecks in history.On April 15, 1912, during her maiden voyage, the widely原创 2021-01-18 14:03:28 · 29080 阅读 · 24 评论 -
吴恩达机器学习ex4 Neural Networks Learning (python)
Programming Exercise 4: Neural Networks Learning Machine Learning目录Introduction1 Neural Networks1.1 Visualizing the data1.2 Model representation1.3 Feedforward and cost function1.4 Regularized cost function2 Backpropagation2.1 Sigmoid gradient2.2 Rand.原创 2021-04-02 23:37:49 · 8076 阅读 · 0 评论 -
吴恩达机器学习ex3 Multi-class Classfication and Neural Networks(python)
Programming Exercise 3: Multi-class Classfication and Neural Networks Machine Learning目录Introduction1 Multi-class Classfication1.1 Dataset1.2 Visualizing the data1.3 Vectorizing Logistic Regression1.3.1 Vectorizing the regularized cost function1.3.2 .原创 2021-02-01 14:48:51 · 8150 阅读 · 0 评论 -
吴恩达机器学习ex2 Logistic Regression (python)
Programming Exercise 2: Logistic Regression Machine Learning原创 2021-01-30 00:00:12 · 8152 阅读 · 0 评论 -
吴恩达机器学习ex1 Linear Regression (python)
吴恩达机器学习exp 1 (python)Programming Exercise 1:Linear Regression Machine LearningLinear regression with one variable1.题目描述 In this part of this exercise, you will implement linear regression with one variable to predict profits for a原创 2021-01-16 01:56:11 · 8980 阅读 · 3 评论