机器学习
机器学习/深度学习
54渣渣shuo
这个作者很懒,什么都没留下…
展开
-
机器学习手撕代码(7)隐马尔科夫模型
机器学习手撕代码(7)隐马尔科夫模型数据集模型代码本文实现了一个隐马尔科夫模型用于序列数据预测。数据集数据集用的《流浪地球》原文,前三章作为训练集,第四章作为测试集,数据集经过分词并打好标签,样例如下:我/r 没/d 见过/v 黑夜/n ,/w 我/r 没/d 见过/v 星星/n ,/w 我/r 没/d 见过/v 春天/t 、/w 秋天/t 和/c 冬天/t 。模型代码import numpy as npimport reimport jsonclass HMM: def原创 2022-05-16 09:28:22 · 667 阅读 · 0 评论 -
机器学习手撕代码(6)人工神经网络
机器学习手撕代码(6)人工神经网络本篇分享一下人工神经网络的代码,ann.py为人工神经网络模型的代码,nn.py为手写实现的神经网络框架代码,utils.py中为可视化结果的工具。dataset见本系列第0篇。nn.pyimport numpy as npclass Module: def __init__(self): pass def __call__(self, *args, **kwargs): passclass Lin原创 2022-02-15 18:04:53 · 768 阅读 · 0 评论 -
机器学习手撕代码(5)svm
机器学习手撕代码(5)svm本篇分享一下svm的代码,svm.py为支持向量机模型的代码。utils.py中为可视化结果的工具。dataset见本系列第0篇。svm.pyimport numpy as npfrom datasets.dataset import DataSetfrom utils import Visualization,Metricsfrom sklearn.model_selection import train_test_splitclass SVM:原创 2022-02-15 18:04:31 · 1289 阅读 · 1 评论 -
机器学习手撕代码(4)knn
机器学习手撕代码(4)knn本篇分享一下knn的代码,knn.py为K近邻模型的代码。dataset见本系列第0篇。import numpy as npfrom datasets.dataset import DataSetfrom sklearn.model_selection import train_test_splitdef distance(data1,data2): data1 = data1.reshape((data1.shape[0],1,data1.shap原创 2022-02-15 18:04:13 · 244 阅读 · 0 评论 -
机器学习手撕代码(3)k-means
机器学习手撕代码(3)k-means本篇分享一下k-means的代码,k_means.py为K均值模型的代码。utils.py中为可视化结果的工具。dataset见本系列第0篇。k_means.pyfrom datasets.dataset import DataSetimport matplotlib.pyplot as pltimport numpy as npfrom sklearn import manifoldfrom utils import Visualization原创 2022-02-15 18:03:49 · 275 阅读 · 0 评论 -
机器学习手撕代码(2)决策树及随机森林
机器学习手撕代码(2)决策树及随机森林本篇分享一下决策树及随机森林的代码,DTandRF.py为决策树以及随机森林两个模型的代码。utils.py中为可视化结果的工具。dataset见本系列第0篇。DTandRF.pyimport numpy as npfrom datasets.dataset import DataSetfrom sklearn.model_selection import train_test_splitfrom utils import Visualizatio原创 2022-02-15 18:03:30 · 483 阅读 · 0 评论 -
机器学习手撕代码(1)贝叶斯分类器
机器学习手撕代码(1)贝叶斯分类器本篇分享一下贝叶斯分类器的代码,naive_bayes.py为朴素贝叶斯分类器,normal_bayes.py中为正态贝叶斯分类器。utils.py中为可视化结果的工具。dataset见本系列第0篇。naive_bayes.pyimport numpy as npfrom datasets.dataset import DataSetfrom sklearn.model_selection import train_test_splitfrom uti原创 2022-02-15 18:03:03 · 769 阅读 · 0 评论 -
深度学习笔记(一)— VGG11
深度学习笔记(1)——VGG111.网络结构2.代码实现3.运行结果本文介绍复现VGG11并用于CIFAR10数据集分类(Pytorch)。1.网络结构上图给出了所有VGG网络的结构,其中VGG11网络结构为:Block1:3*3卷积×1+最大池化×1+relu(输入通道:3,输出通道:64)Block2:3*3卷积×1+最大池化×1+relu(输入通道:64,输出通道:128)Block3:3*3卷积×2+最大池化×2+relu(输入通道:128,输出通道:256)Block4:3*原创 2020-08-13 19:31:49 · 8560 阅读 · 2 评论 -
机器学习笔记(三)决策树 - 分类与回归
机器学习笔记(三)决策树分类一.简介二.先看一个简单的例子三.决策树分类原理1.分类过程概述2.训练过程(1)递归分裂(2)最佳分裂及分裂条件(3)叶子节点的标签(4)终止分裂四.手写鸢尾花分类1. 数据集介绍2. 实现过程(1)数据预处理(2)建立决策树(3)分类本文将介绍使用决策树完成字母数据集的分类任务,并且手写决策树完成鸢尾花的分类一.简介决策树是一种基于规则的方法,它用一组嵌套的规则进行预测。在书的每个决策节点处,根据判断结果进入一个分支,反复执行这种操作直至达到叶子节点,得到预测结果,原创 2020-06-18 17:41:16 · 1449 阅读 · 0 评论 -
机器学习笔记(二)贝叶斯分类器(下)
机器学习笔记(一)贝叶斯分类器(下)本文介绍正态贝叶斯分类器的是实现,并将上一篇文章的图像分类任务中的朴素贝叶斯分类器修改为正态贝叶斯分类器。1 原理概述朴素贝叶斯分类器通过朴素假定将问题简化,即假设特征向量个分量之间相互独立分布,由此一来,分量分布的乘积即为其联合分布。正态贝叶斯分类器认为分量的分布不是独立的,且各分量分别服从正态分布,如此以来更符合一般情况。假设特征向量服从nnn维正态分布,其中μ\muμ为均值向量,Σ\SigmaΣ为协方差矩阵,则特征向量的类条件概率密度为:p(x∣c)=原创 2020-05-31 22:39:12 · 1050 阅读 · 0 评论 -
机器学习笔记(一)贝叶斯分类器(上)
机器学习笔记(一)贝叶斯分类器(上)本文将介绍朴素贝叶斯分类器的基本原理,并将其应用到图像分类任务中。(数据集为字母大小写灰度图,大小为16×16,每种字母1016张,总共26×2×1016张图片,数据集下载链接:github仓库)原理概述贝叶斯公式描述了在已知P(X)发生的条件下,导致其发生的原因是CiC_iCi的概率,称为条件XXX下CiC_iCi的后验概率,P(Ci∣X)P(C_i |X)P(Ci∣X) 即表示XXX属于CiC_iCi类的概率。假设有mmm个类,则分别求出在条件XXX原创 2020-05-31 21:37:05 · 1326 阅读 · 0 评论