![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 85
空字符(公众号:月来客栈)
Talk is cheap, show me your code.
展开
-
10031-This post is all you need(①多头注意力机制原理)
1 引言各位朋友大家好,欢迎来到月来客栈。今天要和大家介绍的一篇论文是谷歌2017年所发表的一篇论文,名字叫做”Attention is all you need“[1]。当然,网上已经有了大量的关于这篇论文的解析,不过好菜不怕晚笔者只是在这里谈谈自己对于它的理解以及运用。对于这篇论文,笔者大概会陆续通过7篇文章来进行介绍:①Transformer中多头注意力机制的思想与原理;②Transformer的位置编码与编码解码过程;③Transformer的网络结构与自注意力机制实现;④Transformer的原创 2021-07-07 19:36:14 · 1059 阅读 · 0 评论 -
An Entropy Weighting k-Means Algorithm for Subspace Clustering of High-Dimensional Sparse Data
本内容整理自 An Entropy Weighting k-Means Algorithm for Subspace Clustering of High-Dimensional Sparse Data前一篇论文Automated Variable Weighting in k-Means Type Clustering里面的WKMeans算法说到如何选择有用的特征维度(subspace)...原创 2017-10-14 16:02:12 · 2121 阅读 · 5 评论 -
Automated Variable Weighting in k-Means Type Clustering
本内容整理自 Automated Variable Weighting in k-Means Type Clustering这篇文章主要的创新点在于–给予特征向量的每个维度一个权重ωjωj\omega_j,称之为W-k-Means的方法。该方法主要用于数据挖掘和统计学中的特征筛选。原始的K-means聚类方法不足之处在于,如果数据集当中混有大量随机噪音(也就是特征向量中有若干维在聚类过程中...原创 2017-10-08 17:25:23 · 1827 阅读 · 3 评论 -
Enhanced soft subspace clustering integrating within-cluster and between-cluster information
1. 聚类的基本思想再介绍下面这篇论文之前,我们先来回顾一下聚类算法的核心思想。其核心主要是让聚类后的各个簇“离得尽可能远”,这样就能最大程度上使得聚类的准确度最高。那么现在的问题就是我们应该如何来量化“离得尽可能远”呢?或者什么叫“离得尽可能远”,怎么来刻画?我们都知道传统Kmeans算法仅仅只是最小化簇内距离(先计算每个簇中,每个样本点到其簇中心距离和S1,S2,⋯,SkS1,S2,⋯...原创 2018-05-02 14:35:24 · 791 阅读 · 3 评论 -
PredRNN: Recurrent Neural Networks for Predictive Learning using Spatiotemporal LSTMs
这是一篇2017年发表在顶级期刊NIPS上的文章,作者通过发现传统RNN/LSTM网络的不足,提出了一种新的网络结构PredRNN,并且为这一网络结构设计了一种新的RNN单元(ST-LSTM)。由于博主能力有限,通过阅读原文短时间能只是领悟到PredRNN这一网络结构的思想,而并未对ST-LSTM的设计灵感有更深的体会。下面这篇博文主要是来介绍一下什么是PredRNN,以及通过作者的设计思路...原创 2019-03-06 13:09:36 · 3754 阅读 · 0 评论 -
Flow Prediction in Spatio-Temporal Networks Based on Multitask Deep Learning
这是一篇郑宇团队2019年发表在 **IEEE Transactions on Knowledge and Data Engineering** 杂志上的一篇论文。 从题目来看文章提出的模型是一个多任务模型,在阅读文论之后发现是为了解决两个问题: ①流量预测;(同论文 [上一篇博文介绍的论文一样](https://blog.csdn.net/The_lastest/article/de...原创 2019-04-01 19:57:59 · 2361 阅读 · 9 评论