自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 DGL入坑

DGL教学文章目录DGL教学1. 数据集2. 图特征3. Graph Loader and Training4. 自定义图神经网络DGL官方文档:https://docs.dgl.ai/index.html1. 数据集from dgl.data import DGLDatasetclass MyDataset(DGLDataset): def __init__(self, url=None, raw_dir=None,

2022-05-26 16:07:01 505 1

原创 论文做图案例

折线图from functools import reducefrom scipy.stats.stats import modefrom scipy.sparse import coo_matriximport scipy.sparse as spfrom numpy.random import randimport numpy as npimport mathimport matplotlib.pylab as pltimport seaborn as snsimport panda

2022-02-28 10:50:07 319

原创 Vscode Code远程连接的免密登录

Vscode Code远程连接的免密登录第一步:local生成私钥和公钥打开cmd,输入如下,期间的要求连按三次回车即可。ssh-keygen -t rsa结果如下:Generating public/private rsa key pair.Enter file in which to save the key (C:\Users\***/.ssh/id_rsa):Enter passphrase (empty for no passphrase):Enter same passphra

2022-02-28 10:34:35 927

原创 NGCF论文笔记

Neural Graph Collaborative Filtering论文笔记论文地址:NGCF代码地址:https://github.com/xiangwang1223/neural_graph_collaborative_filtering简要概述对user和item进行embedding是当前推荐系统的核心,但如今不少算法只利用user或者item本身的特征进行embe...

2020-04-20 17:10:12 3869 5

原创 DGCNN论文笔记

An End-to-End Deep Learning Architecture for Graph Classifification 论文笔记论文地址:DGCNN代码地址:https://github.com/muhanzhang/pytorch_DGCNN简要概述论文提出了图卷积的方法,此处的图(Graph),指的是包含节点与边的二维图,与一般的图像卷积不同,图卷积有节点数和边数不...

2020-04-11 22:31:01 898

原创 N_Gram_Graph论文

N_Gram_Graph论文论文地址:N-Gram Graph: Simple Unsupervised Representation for Graphs, with Applications to Molecules代码地址: https://github.com/chao1224/n_gram_graph简要概述:这篇论文简要叙述了利用自然语言处理中n_gram的方法对分...

2020-04-10 13:22:32 769

原创 主元分析和奇异值分解

主元分析和奇异值分解主元分析或者主成分分析,即PCA(Principal Component Analysis)和奇异值分解,即SVD(Singular Value Decomposition)都是常用的对数据进行预处理进行降维的方法,通常我们认为样本的一个特征为一个维度,即特征向量中的维度,若样本的特征非常非常多,那么对于各种算法来说算起来都是很耗时耗内存的,这时就应该降维,同时要保持大部分原...

2020-02-12 22:57:57 311 1

原创 GBDT和XGBoost

集成学习–GBDT和XGBoostGBDT和XGBoost是属于集成学习中的Boosting,相较于基本的AdaBoosting算法,这两个算法更加广泛的应用在各种比赛中。GBDTGBDT(Gradient Boosting Decision Tree)又称为梯度提升树,其是基于决策树或者回归树为单学习器的集成学习工具。GBDT的基本思想是拟合残差,残差简单的一种有yi−f(xi)y_i-f...

2020-02-10 18:05:30 229

原创 FP-growth

FP-growth算法无监督学习对于离散型数据的学习,有Apriori算法,但是可以看到Apriori算法找频繁项集时每次都要遍历所有样本,对于大样本的数据集来说,Apriori算法很慢,于是FP-growth算法应运而生,FP-growth算法是Apriori算法的改进版,但是只能用于找频繁项集及其支持度而不能算关联关系的置信度简要原理FP-growth算法涉及储存数据的特殊数据结构——F...

2020-02-08 21:31:42 138

原创 Apriori关联分析

Apriori关联分析关联分析同样是无监督学习中的算法,个人理解,k-means算法是计算无类别连续量之间的关系,而Apriori算法则是计算无类别离散量之间的关系。对于联系量来说,样本之间的关系可以用距离来表示,但对于离散量,我们要定义新的关系:频繁项集:是经常出现在一块的属性的集合,比如对于西瓜{色泽=浅绿,触感=硬滑}支持度:是对于一个集合来说的,是数据集中包含该项集的比例,...

2020-02-07 21:55:53 229 1

原创 支持向量机

支持向量机简要介绍支持向量机(support vector machine),又称SVM,是一种常见的数据分类学习算法,目的是求得参数建立函数f(X)=WTX+bf(X)=W^TX+bf(X)=WTX+b,将样本代入,大于0的与小于0的为不同类别,求得参数有两种方法,其一,满足一个条件,即f(X)=0f(X)=0f(X)=0分开的两个类别间隔要最大化,所以SVM亦称为最大间隔算法,见图一,另外...

2020-02-06 21:46:28 129

原创 其他聚类算法

聚类2上篇文章介绍了聚类算法中基本的k均值聚类算法,然而还有很多种其他的聚类算法密度聚类(DBSCAN)这种方法的聚类不是以方差最小为衡量标准,而是遵循一个原则,“兄弟的兄弟也是兄弟”,也就是加入A与B距离很近,B与C距离很近,就算A与C距离较远,ABC也是属于同一个簇。这里定义核心对象:若xjx_jxj​的ϵ−\epsilon -ϵ−邻域至少包含MinPtsMinPtsMinPts个...

2020-02-05 21:09:25 126

原创 聚类

聚类无监督学习机器学习可以分为监督学习和无监督学习,监督学习中每个样本都有属于的已知类别,比如色泽为青绿,甜度高的西瓜为好瓜,而无监督学习则没有已知的类别,只有样本的特征值是已知的,此时就不是分类和回归的任务,聚类成为这些样本的一种学习聚类聚类试图将数据集中的样本划分为若干个不相交的子集,每个子集称为一个簇,通过这样的划分,每个簇可能对于于一些潜在的类别形式化的说,假定样本集DDD={x...

2020-02-05 14:29:13 112

原创 回归树实现

回归树实现之前实现过决策树,回归树与决策树的原理类似,可以说他们是双胞胎,决策树用于分类标量型数据,回归树用于回归连续性数据。不同于决策树,回归树没有信息增益原理,但是也考虑样本数据的纯度,连续型的数据则用方差表示纯度,决策树在以一个属性作为分支后,则不会再考虑该属性,而回归树并不是,回归树以一个属性的一个值作为分支,小于该值的样本和大于等于该值的样本为分支,并且要满足分支后的样本方差和要小于...

2020-02-03 17:04:53 180

原创 集成学习--随机森林

集成学习—Bagging和随机森林BaggingBagging就是Bootstrap aggregating,自举汇聚法,亦称为装袋法。与Boosting的不同:Boosting在训练时会使用所有的数据集,而Bagging有其独特的采样方法,也就是Bootstrap假设有m个样本DDD,则每次从样本总体中随机选取一个放入DiD_iDi​中,注意的是该样本并没有在原样本总体中剔除,这样...

2020-02-01 19:54:53 212

原创 集成学习--Boosting实现

集成学习—Boosting实现弱学习器我们选用单层决策树,亦称为决策树桩,意思就是只有一个分支,要选取一个属性使得分类结果最好,这里不同于决策树常用的信息增益算法。AdaBoosting实现有两个步骤实现决策树桩算出弱学习器的权重和更新数据集的权重1. 首先处理数据:from numpy import *#def loadData():# datMat = matrix(...

2020-01-31 20:39:28 285

原创 对数几率回归

对数几率回归简要介绍利用回归解决分类问题,也就是用一个函数拟合数据,最终将函数值映射到0或1 。搞懂对数几率回归,对理解神经网络很有帮助。具体原理给定数据集D=(x1,y1),(x2,y2),⋯(xn,yn).D=(x_1,y_1),(x_2,y_2),\cdots (x_n,y_n).D=(x1​,y1​),(x2​,y2​),⋯(xn​,yn​).其中每个样本输入有nnn个属性(x11...

2020-01-31 14:41:01 251

原创 决策树

决策树简要介绍本文主要介绍一下简单的决策树。决策树的原理是每次选出一个特征,根据此特征进行分支,最后决策树的叶子就是数据的类别。一般的,一颗决策树包含一个根节点、若干个内部节点和若干个叶节点。根节点表示数据集,叶节点表示决策结果,其他的每个节点表示一个属性测试。具体原理决策树的构造最重要的是选出当前最应该考虑的特征,即每个非叶节点的节点究竟要以那个属性作为分支。这里用到信息增益原则。划分数...

2020-01-30 22:05:25 342

原创 深度神经网络

深度神经网络——卷积神经网络普通的全连接神经网络,因为参数过多,训练时间久,也会出现过拟合的现象,故出现了卷积神经网络。即使层数很多,但参数大大减少。在前面几层不是每个神经元都相互连接,并且出现共用权值的现象,只有在最后几层才会有全连接神经网络最常见的有处理图像的卷积神经网络:图像的组成图像其实就是矩阵,每个像素点就是一个值。现在的图像(JPG格式,PNG格式,BMP格式)都是三通道的,...

2020-01-29 21:01:39 167

原创 前馈神经网络

前馈神经网络—BP算法简要介绍:神经元模型:一个神经元接受多个输入,其自身有一个阈值,输入的强度达到阈值,便会兴奋,输出1,达不到便不兴奋输出0. 其数学模型是y=f(∑i=1nwixi−θ) y=f(\sum_{i=1}^nw_ix_i-\theta) y=f(i=1∑n​wi​xi​−θ)其中fff为激励函数,有多种,1 .sigmod函数f(x)=11+e−xf(x)=...

2020-01-29 16:13:27 526

原创 集成学习--Boosting

集成学习——Boosting集成学习什么是集成学习?集成学习通过构建并结合多个学习器来完成学习任务,这多个学习器通常叫“基学习器”或“弱学习器”,这些学习器是简单的学习器如决策树学习器或神经网络学习期,性能只是比随机好一点。多个学习器的学习结果通过一定方法结合起来得到最终的学习结果BoostingBoosting是一种常见的集成学习算法,各个个体学习器具有串行的关系,何为...

2020-01-29 13:47:48 281

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除