算法原理
文章平均质量分 75
imsuhxz
这个作者很懒,什么都没留下…
展开
-
【转】完全图解RNN、RNN变体、Seq2Seq、Attention机制
本文转载自:https://zhuanlan.zhihu.com/p/28054589 本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。一、从单层网络谈起在学习RNN之前,首先要了解一下最基本的单层网络,它的结构如图:输入是x,经过变换Wx+b和...转载 2018-08-27 11:39:59 · 735 阅读 · 0 评论 -
【转】python数据库编程, pymysql, Connect, cursor, commit, rollback , fetchall
转载自:https://blog.csdn.net/vivian_wanjin/article/details/82778589import pymysqlclass JD(object): def __init__(self): self.dic = {0: self.__close, 1: self.__fetch_a...转载 2019-06-04 11:26:48 · 272 阅读 · 0 评论 -
余弦相似度
import scipyimport torchdef calculate_distances(features1,features2): return scipy.spatial.distance.cdist(features1,features2, "cosine")def cosine_similarity_torch(features1, features2):...原创 2019-06-03 09:06:42 · 645 阅读 · 0 评论 -
使用GloVe训练中文语料
0.安装gcc在运行前务必确保ubuntu下有gccgcc --version# 如果没有则安装:yum install gcc1.准备语料准备好语料并进行分词,保存glove_corpus文件2.下载源码https://github.com/stanfordnlp/GloVe解压文件夹,将语料glove_corpus放入到GloVe的主文件夹下。3....原创 2019-02-20 15:28:08 · 5156 阅读 · 6 评论 -
gensim相关功能函数及其案例
目录一、gensim介绍二、训练模型相关转换词频-逆文档频(Term Frequency * Inverse Document Frequency, Tf-Idf)潜在语义索引(Latent Semantic Indexing,LSI,or sometimes LSA)随机映射(Random Projections,RP)隐含狄利克雷分配(Latent Dirichle...转载 2019-02-15 10:01:20 · 4541 阅读 · 1 评论 -
【转】从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史slides转载 2019-01-23 10:49:36 · 793 阅读 · 0 评论 -
【转】PyTorch实战指南
本文转载自:PyTorch实战指南作者:陈云这不是一篇PyTorch的入门教程!本文较长,你可能需要花费20分钟才能看懂大部分内容建议在电脑,结合代码阅读本文本指南的配套代码地址: chenyuntc/pytorch-best-practice 目录1 比赛介绍2 文件组织架构3 关于__init__.py4 数据加载5 模型定义6 工具函数...转载 2018-11-06 11:02:02 · 975 阅读 · 0 评论 -
【转】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色
本文转载自:https://zhuanlan.zhihu.com/p/29168803目录【导读】本文全面系统性梳理介绍了强化学习用于发掘GAN在NLP领域的潜力,请大家阅读。1. 基础:文本生成模型的标准框架2. 问题:GAN为何不能直接用于文本生成2.1. GAN基础知识2.2. GAN面对离散型数据时的困境(啥是离散型数据?)3. 过渡方案:对于GAN的直接改...转载 2018-09-17 11:32:36 · 4171 阅读 · 0 评论 -
【转】CNN与RNN中文文本分类-基于TENSORFLOW实现
本文转载自:https://gaussic.github.io/2017/08/30/text-classification-tensorflow/ 本章旨在使用TensorFlow API实现卷积神经网络与循环神经网络文本分类。代码地址:Github转载请注明出处:GaussicCNN做句子分类的论文可以参看: Convolutional Neural Networks ...转载 2018-09-03 15:58:15 · 1404 阅读 · 1 评论 -
【转】Batchnorm原理详解
本文转载自:https://blog.csdn.net/qq_25737169/article/details/79048516 前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分。 本文旨在用通俗易懂的语言,对深度学习的常用算法–batchnorm的原理及其代码实现做一个详细的解读。本文主要包括以下几个部分...转载 2018-08-30 11:36:52 · 1719 阅读 · 0 评论 -
【转】详解机器学习中的梯度消失、爆炸原因及其解决方法
本文转载自:https://blog.csdn.net/qq_25737169/article/details/78847691 前言本文主要深入介绍深度学习中的梯度消失和梯度爆炸的问题以及解决方案。本文分为三部分,第一部分主要直观的介绍深度学习中为什么使用梯度更新,第二部分主要介绍深度学习中梯度消失及爆炸的原因,第三部分对提出梯度消失及爆炸的解决方案。有基础的同鞋可以跳着阅读。 其...转载 2018-08-30 09:07:56 · 216 阅读 · 0 评论 -
【转】漫谈Word2vec之skip-gram模型
本文转载自:https://mp.weixin.qq.com/s/reT4lAjwo4fHV4ctR9zbxQ word2vec是Google研究团队的成果之一,它作为一种主流的获取分布式词向量的工具,在自然语言处理、数据挖掘等领域有着广泛的应用。达观数据的文本挖掘业务有些地方就使用了该项技术。本文从以下几个方面简要介绍Word2vec的skip-gram模型: 第一部分对比wor...转载 2018-09-04 15:25:29 · 912 阅读 · 0 评论 -
【转】fastText原理及实践
本文转载自:https://zhuanlan.zhihu.com/p/32965521 fastText是Facebook于2016年开源的一个词向量计算和文本分类工具,在学术上并没有太大创新。但是它的优点也非常明显,在文本分类任务中,fastText(浅层网络)往往能取得和深度网络相媲美的精度,却在训练时间上比深度网络快许多数量级。在标准的多核CPU上, 能够训练10亿词级别语料库的词向...转载 2018-09-04 15:15:59 · 615 阅读 · 0 评论 -
【转】Word2Vec原理之层次Softmax算法
本文转载自:http://qiancy.com/2016/08/17/word2vec-hierarchical-softmax/ 在这个人工智能半边天,主流话题一天一变的现代世界里,不乏进步,也不乏泡沫,但Word2Vec依然是很富极客精神的典型代表,作者思路很巧妙,工程层面又很实用主义。词嵌入的假设,是通过一个词所在的上下文可以获得词的语义甚至语法结构,有相似上下文的词在向量空间中...转载 2018-08-27 17:04:40 · 15385 阅读 · 10 评论 -
【转】一些因素对F1值的影响
截自:https://blog.csdn.net/qq_27590277/article/details/88374695https://blog.csdn.net/qq_27590277/article/details/88367082一些因素对F1值的影响如果还没了解F1值的话,这里有我之前写的通俗易懂的文章详谈P(查准率),R(查全率),F1值通过控制变量法,对以下...转载 2019-08-13 15:42:46 · 2634 阅读 · 0 评论