机器学习&深度学习
文章平均质量分 51
WitsMakeMen
这个作者很懒,什么都没留下…
展开
-
【论文学习】GraphFM: Graph Factorization Machines for Feature Interaction Modeling
通过图技术的思想,将FM成功使用GNN的方式进行了表达,解决了FM中全部交叉带来的维度爆炸和引入噪音的问题。原创 2022-11-09 10:42:13 · 462 阅读 · 0 评论 -
【论文学习】Neighbour Interaction based Click-Through Rate Prediction via Graph-masked Transformer
提出了一种基于邻居图的预测ctr的方式,结合了transformer,提出了自己的Graph-Masked Transformer模型结构。原创 2022-11-08 16:44:10 · 499 阅读 · 0 评论 -
【论文学习】GraphSAGE:Inductive Representation Learning on Large Graphs
Low-dimensional embeddings of nodes in large graphs have proved extremelyuseful in a variety of prediction tasks, from content recommendation to identifyingprotein functions. However, most existing approaches require that all nodes in thegraph are prese原创 2022-11-01 09:37:30 · 166 阅读 · 0 评论 -
【论文学习】GRAPH ATTENTION NETWORKS
We present graph attention networks (GATs), novel neural network architecturesthat operate on graph-structured data, leveraging masked self-attentional layers toaddress the shortcomings of prior methods based on graph convolutions or theirapproximations原创 2022-10-24 14:37:04 · 704 阅读 · 0 评论 -
【论文学习】GCN: SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
We present a scalable approach for semi-supervised learning on graph-structureddata that is based on an efficient variant of convolutional neural networks whichoperate directly on graphs. We motivate the choice of our convolutional architecturevia a loc原创 2022-10-20 23:03:22 · 241 阅读 · 0 评论 -
【论文学习】Neural Message Passing for Quantum Chemistry
图学习方法,论文描述怎么讲整张图抽象成可学习的模型。原创 2022-10-13 16:36:32 · 152 阅读 · 0 评论 -
【经典模型实现】对话生成系统实现
使用transformer实现简单的领域对话系统,初步探索对话效果,没有经过预训练的transformer还是能够很好的学习到问答之间的对应关系的原创 2022-10-09 20:38:05 · 1015 阅读 · 1 评论 -
【经典模型实现】一个简单的基于transformer的机器翻译
利用transformer学习nlp能力,实现简单的机器翻译模型。原创 2022-09-29 19:02:51 · 2137 阅读 · 1 评论 -
【论文理解】Neural circuit policies enabling auditable autonomy
ncp关于自动驾驶原创 2022-08-25 15:39:57 · 768 阅读 · 0 评论 -
【论文理解】DQN:Playing Atari with Deep Reinforcement Learning
简单理解DQN原创 2022-08-23 10:56:26 · 749 阅读 · 0 评论 -
【论文理解】AlphaGo:Mastering the game of Go with deep neural networks and tree search
AlphaGo实现原理简单总结原创 2022-08-21 13:40:13 · 300 阅读 · 0 评论 -
Learning to Rank: From Pairwise Approach to Listwise Approach~2007
主要工作定义了一种表示整个序列概率分布方式。然后用交叉熵的方式计算两个分布的距离。比pairwise好的方式是,解决了pairwise因为query不同而导致的训练数据偏差。listwise的方式更接近map等排序指标的优化。理论工作定义排列得分定义了序列的概率表示方式。例如:排序公式的特性:大体意思是将高分item交换到任何一个低分的位置,整个队列的概率得分P会下降。优化排列得分计算方式原因:因为计算两个概率分布之间的差异,需要计算所有排列组合的差异,计算量是N的阶乘,计算量原创 2021-08-03 15:07:28 · 164 阅读 · 0 评论 -
为什么esmm cvr塔是在点击样本空间中学习?
问题:为什么esmm学习cvr的时候不适用点击后的样本空间,而是用整个样本空间?这样学习出来的cvr不会有偏差吗?理解:esmm不是直接学习cvr转换率,因为cvr在整个曝光样本空间上学习效果是不好的,这个同过添加Lcvr效果不好也可以得到验证。esmm通过loss学习pctcvr来间接的学习pcvr,pctcvr是整个样本空间的可学习的,是直接由曝光到点击这一步,所以这一个可以学习通过整个样本空间学习得到。转自:https://zhuanlan.zhihu.com/p/29140617原创 2021-07-06 23:45:43 · 303 阅读 · 0 评论 -
深度学习利器:TensorFlow与深度卷积神经网络
链接:http://www.infoq.com/cn/articles/rust-in-2017-rust-past-present-and-future前言图像识别技术越来越多地渗透到我们的日常生活中,人可以很快递判别图像类型,比如,很容易地识别一个图片是狮子还是其它动物,可以很容易地对人脸进行识别。但是对于机器来说,去识别一个图片是什么,是一个非常困难的问题。但在过去的转载 2018-01-28 18:29:07 · 1510 阅读 · 0 评论 -
如何做一款聊天机器人
链接:http://blog.csdn.net/searobbers_duck/article/details/52056716如何做一款聊天机器人目录前言什么是我认为的对话机器人语音助手如何去做一个像上述提到的那样的东西解释一下上述架构图如何将上述理论和实际结合呢?结论参考文献(帖子) 前言以此开题,并不是一定要做一转载 2018-01-20 20:54:58 · 437 阅读 · 0 评论 -
卷积神经网络学习理解(CNN)
很多时候看似自己懂了,其实不把自己的理解总结出来,永远不会发现自己真正不懂得地方。所以借着学习卷积神经网络的机会,记录一下自己的理解。如果有出现偏差的地方,希望大家指正,共同学习。一 卷积神经网络积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型原创 2018-01-28 19:55:22 · 656 阅读 · 0 评论 -
Tensorflow 学习笔记:Input Pipeline - Dataset
转自:http://blog.csdn.net/west_609/article/details/78608541 Tensorflow 学习笔记:Input Pipeline - DatasetDataset是Tensorflow里面一个比较重要的概念,我们知道机器学习算法需要大概的数据来训练data model. 所以Dataset就是用来做这么一件重要的事情:定义数据pipline,为...转载 2018-02-11 20:13:19 · 637 阅读 · 0 评论 -
TensorFlow全新的数据读取方式:Dataset API入门教程
链接:http://blog.csdn.net/kwame211/article/details/78579035Dataset API是TensorFlow 1.3版本中引入的一个新的模块,主要服务于数据读取,构建输入数据的pipeline。此前,在TensorFlow中读取数据一般有两种方法:使用placeholder读内存中的数据 使用queue读硬盘中的数据(关于这种方式,可...转载 2018-02-13 11:02:52 · 295 阅读 · 0 评论 -
推荐系统中隐语义模型
链接:http://blog.csdn.net/ariessurfer/article/details/43484323 使用LFM(Latent factor model)隐语义模型进行Top-N推荐最近在拜读项亮博士的《推荐系统实践》,系统的学习一下推荐系统的相关知识。今天学习了其中的隐语义模型在Top-N推荐中的应用,在此做一个总结。隐语义模型LFM和LSI,LDA,Topic M...转载 2018-02-28 10:15:07 · 355 阅读 · 0 评论 -
一文详解 Word2vec 之 Skip-Gram 模型(结构篇)
转自:https://www.leiphone.com/news/201706/PamWKpfRFEI42McI.html这是一个关于 Skip-Gram 模型的系列教程,依次分为结构、训练和实现三个部分,本文为第一部分:结构篇,后面两个部分我们将陆续发布,敬请期待。原文作者天雨粟,原载于作者知乎专栏,雷锋网已获授权。这次的分享主要是对Word2Vec模型的两篇英文文档的翻译、理解和整合,...转载 2018-02-28 11:50:43 · 452 阅读 · 0 评论 -
CS231n Convolutional Neural Networks for Visual Recognition
链接:http://cs231n.github.io/convolutional-networks/Table of Contents:Architecture OverviewConvNet LayersConvolutional LayerPooling LayerNormalization LayerFully-Connected LayerConverting转载 2018-01-27 21:27:14 · 391 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列
转自:http://blog.csdn.net/zouxy09/article/details/8781543Deep Learning(深度学习)学习笔记整理系列声明:1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。2)本文仅供学术交流,非转载 2018-01-26 14:25:57 · 229 阅读 · 0 评论 -
tensorflow笔记 :常用函数说明
转自:http://blog.csdn.net/u014595019/article/details/52805444tensorflow笔记系列: (一) tensorflow笔记:流程,概念和简单代码注释 (二) tensorflow笔记:多层CNN代码分析 (三) tensorflow笔记:多层LSTM代码分析 (四) tensorflow笔记:常用函数说明转载 2018-01-26 14:21:52 · 256 阅读 · 0 评论 -
Deep MNIST for Experts学习笔记
转自:http://blog.csdn.net/wangguanghui0607/article/details/51658503Deep MNIST for Experts学习笔记今天看了TensorFlow的Deep MNIST for Experts的部分,为了加深理解用中文的翻译一下。英文原文请参考:https://www.tensorflow.转载 2018-01-26 14:20:50 · 518 阅读 · 0 评论 -
Deep Learning 学习随记(七)Convolution and Pooling --卷积和池化
链接:https://www.cnblogs.com/bzjia-blog/p/3415790.htmlDeep Learning 学习随记(七)Convolution and Pooling --卷积和池化图像大小与参数个数:前面几章都是针对小图像块处理的,这一章则是针对大图像进行处理的。两者在这的区别还是很明显的,小图像(如8*8,MINIST的28*28)可以采用全连接的转载 2018-01-26 13:22:53 · 406 阅读 · 0 评论 -
tensorflow学习
tensorflow学习链接:https://www.tensorflow.org/get_started/mnist/pros原创 2018-01-26 11:29:15 · 348 阅读 · 0 评论 -
Creating Custom Estimators
链接:https://www.tensorflow.org/get_started/custom_estimatorsCreating Custom EstimatorsThis document introduces custom Estimators. In particular, this document demonstrates how to create a custom Es转载 2018-01-30 22:02:54 · 355 阅读 · 0 评论 -
[译] 理解 LSTM 网络
链接:https://www.jianshu.com/p/9dc9f41f0b29[译] 理解 LSTM 网络Neil Zhu,简书ID Not_GOD,University AI 创始人 & Chief Scientist,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。作为行业领导者转载 2018-01-21 17:21:41 · 287 阅读 · 0 评论 -
词向量与Embedding究竟是怎么回事?
转载到请包括本文地址:https://kexue.fm/archives/4122/词向量,英文名叫Word Embedding,按照字面意思,应该是词嵌入。说到词向量,不少读者应该会立马想到Google出品的Word2Vec,大牌效应就是不一样。另外,用Keras之类的框架还有一个Embedding层,也说是将词ID映射为向量。由于先入为主的意识,大家可能就会将词向量跟Word2Vec等同起...转载 2018-03-01 11:13:37 · 1184 阅读 · 0 评论 -
大白话讲解word2vec到底在做些什么
链接:http://blog.csdn.net/mylove0414/article/details/61616617词向量 word2vec也叫word embeddings,中文名“词向量”,作用就是将自然语言中的字词转为计算机可以理解的稠密向量(Dense Vector)。在word2vec出现之前,自然语言处理经常把字词转为离散的单独的符号,也就是One-Hot Encoder。...转载 2018-03-01 11:28:54 · 649 阅读 · 0 评论 -
Word2Vec概述与基于Hierarchical Softmax的CBOW和Skip-gram模型公式推导
转自:http://blog.csdn.net/liuyuemaicha/article/details/52611219该文档是我在《Word2Vec_中的数学原理详解》基础上做的总结和一些新的描述,增加了代码与公式的对照和公式总汇(公式太多,汇总下看起来更方便),可以更加方便的加深对代码和公式理解。既然是总结,则一些很基础的知识我没有写到,如果里面的有些概念不熟悉,也可以自己查一下,网上资...转载 2018-03-10 21:58:28 · 721 阅读 · 0 评论 -
mapreduce简单编写
转自:https://blog.csdn.net/weixin_42685589/article/details/81111152一. MapReduce 编程模型还是以一个经典的图片来说明问题.首先, 我们能确定我们有一份输入, 而且他的数据量会很大通过split之后, 他变成了若干的分片, 每个分片交给一个Map处理map处理完后, tasktracker会把数据进行复...转载 2019-06-12 17:00:03 · 323 阅读 · 0 评论 -
对Attention is all you need 的理解
转自:https://blog.csdn.net/mijiaoxiaosan/article/details/73251443 本文参考的原始论文地址:https://arxiv.org/abs/1706.03762谷歌昨天在arxiv发了一篇论文名字教Attention Is All You Need,提出了一个只基于attention的结构来处理序列模型相关的问题,比如机器翻译。传统的神...转载 2018-06-13 15:10:11 · 658 阅读 · 0 评论 -
机器翻译模型Transformer代码详细解析
转自:https://blog.csdn.net/mijiaoxiaosan/article/details/74909076 谷歌一个月前发了一篇论文Attention is all you need,文中提出了一种新的架构叫做Transformer,用以来实现机器翻译。它抛弃了传统用CNN或者RNN的定式,取得了很好的效果,激起了工业界和学术界的广泛讨论。本人的另一篇博客也对改论文进行了一定...转载 2018-06-13 15:02:05 · 2820 阅读 · 0 评论 -
Hive教程
转自:https://www.yiibai.com/hive/ Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 术语“大数据”是大型数据集,其中包括体积庞大,高速,以及各种由与日俱增的数据的集合。使用传统的数据管理系统,它是难以加工...转载 2018-05-16 15:19:16 · 406 阅读 · 0 评论 -
机器学习数据
(1)搜狗机器学习数据:http://www.sogou.com/labs/resource/list_pingce.php原创 2018-05-21 16:56:27 · 311 阅读 · 0 评论 -
TensorFlow saved_model 模块
转自:https://blog.csdn.net/thriving_fcl/article/details/75213361 saved_model模块主要用于TensorFlow Serving。TF Serving是一个将训练好的模型部署至生产环境的系统,主要的优点在于可以保持Server端与API不变的情况下,部署新的算法或进行试验,同时还有很高的性能。保持Server端与API不变有...转载 2018-04-23 19:51:59 · 780 阅读 · 0 评论 -
一个简单的word2vec实现
最近学习word2vec,根据自己的理解实现了一个简单的word2vec实现,算法总共三层数据结构,输入层,隐藏层(embedding_lookup),输出层,简单代码如下:import tensorflow as tfimport numpy as npcontents = '一二三四五六七八九十一二三四五六七八九十一二三四五六七八九十一二三四五六七八九十一二三四五六七八九十一二三四五...原创 2018-04-01 16:28:13 · 1411 阅读 · 0 评论 -
简单记录Tensorflow中Graph和Session的关系
转自:https://blog.csdn.net/xg123321123/article/details/78017997 本篇博客转自以下博客: Tensorflow学习笔记2:About Session, Graph, Operation and Tensor cs20si:tensorflow for research 学习笔记1以下是正文:1 Tensorflow是一个...转载 2018-04-08 18:00:25 · 1279 阅读 · 0 评论 -
Word2Vec Tutorial Part 2 - Negative Sampling
链接:http://mccormickml.com/2017/01/11/word2vec-tutorial-part-2-negative-sampling/Word2Vec Tutorial Part 2 - Negative Sampling 11 Jan 2017 In part 2 of the word2vec tutorial (here’s part 1), I’ll co...转载 2018-03-12 21:00:13 · 409 阅读 · 0 评论