机器学习
文章平均质量分 93
个人学习笔记
YoHu人家
Unnnnnndefined
展开
-
基于pytorch框架的MNIST手写数字识别详解(附源码)
本文基于pytorch框架、MNIST数据集,使用LeNet对MNIST数据集实现高精度手写数字识别。原创 2019-04-11 14:29:28 · 6378 阅读 · 6 评论 -
pytorch上实现对小数据集的迁移学习Transfer Learning(附源码及详细注释)
在实践中,由于数据集不够大,很少有人从头开始训练网络。常见的做法是使用预训练的网络来重新fine-tune,或者当做特征提取器。原创 2019-04-22 21:35:12 · 4092 阅读 · 0 评论 -
快速上手:图聚类入门 Graph Clustering
硕士研究工作基本告一段落了,静候佳音中~最近实习期做的东西还挺有意思,再加上一些别的原因,大概率不会读博了(碎碎念)其实一直想总结一下近几年的图节点聚类的一些工作,算是一个逗号吧。个人总结,若有错误欢迎指正。本文从问题定义入手,再到近几年的工作,最后进行横向对比,并提供一些个人向的future work(俗称画饼),以供参考。文章目录先验知识聚类图图神经网络图节点聚类先验知识这部分介绍一下聚类、图、图神经网络。都掌握的不错的同学可以直接跳过。聚类聚类就是在未知标签的前提下,将样本集合分为多个原创 2021-07-15 02:29:14 · 34056 阅读 · 14 评论 -
图对比学习入门 Contrastive Learning on Graph
对比学习作为近两年的深度学习界的一大宠儿,受到了广大研究人员的青睐。而图学习因为图可以用于描述生活中广泛出现的非欧式数据,具有广大的应用前景。本文从对比学习入手,再介绍图对比学习模型,以及近年的一些有意思的模型。目录对比学习(Contrastive Learning)Gelato Bet (冰淇淋赌注)与何凯明组的MoCo模型监督学习vs自监督学习生成式学习与对比学习对比学习的工作方式对比学习范例从DIM(Deep InfoMax)到DGI(Deep Graph InfoMax)Deep InfoMax(原创 2020-11-21 18:24:25 · 23172 阅读 · 4 评论 -
背景知识:从熵(Entropy)到互信息(MI,Mutual Information)
本文为鄙人的网摘与总结,参考链接见文末,侵删。这里写目录标题香农熵(Shannon entropy)熵(entropy)信息(Information)香农熵(Shannon entropy) 信息量:对某个事件发生或者变量出现的概率的度量,一般一个事件发生的概率越低,则这个事件包含的信息量越大,这跟我们直观上的认知也是吻合的,越稀奇新闻包含的信息量越大,因为这种新闻出现的概率低。 香农对信息量的衡量:log 1p=−log plog\ \frac{1}{p}=-log\原创 2020-11-10 20:33:42 · 2532 阅读 · 0 评论 -
2020[NIPS] Graph Contrastive Learning with Augmentations 用于图数据增强的图对比学习
目录AbstractIntroduction研究意义与难点贡献概念补充Method图的数据增强图对比学习GraphCLDiscussion图对比学习中数据增强扮演的角色有效图扩充的类型、范围和模式ComparsionConclusionBroader ImpactAbstract 对图结构化数据的通用性,可传递性和鲁棒性表示学习仍然是当前图神经网络(GNN)面临的挑战。与针对卷积神经网络(CNN)开发的图像数据不同,针对GNN的自我监督学习和预训练的探索较少。在本文中,我们提出了一种图对比学习(Gr原创 2020-11-04 20:27:48 · 9208 阅读 · 6 评论