- 博客(17)
- 资源 (1)
- 收藏
- 关注
原创 C++ 容器类 Map unordered_map
目录一、头文件二、插入元素三、查找元素四、刪除与清空元素五、map的基本操作函数简单对比map和unordered_mapmap内部是红黑树,在插入元素时会自动排序,map中的元素会自动保持从小到大(key)排序存储.而无序容器unordered_map内部是散列表,通过哈希而不是排序来快速操作元素,使得效率更高。当你不需要排序时选择unordered_map的效率更高。一、头文件#include <map>//注意,STL头文件没有扩展名.h...
2020-07-21 15:15:00 602
转载 使用Scala语言通过Spark实现Join
joinjoin类似于SQL的innerjoin操作,返回结果是前面和后面集合中配对成功的,过滤掉关联不上的。leftOuterJoinleftOuterJoin类似于SQL中的左外关联left outerjoin,返回结果以前面的RDD为主,关联不上的记录为空。rightOuterJoinrightOuterJoin类似于SQL中的有外关联,返回结果以参数也就是右边的RDD为主,关联不上的记录为空接下来我们通过SQL与代码相结合的方式,了解一下,如何使用Spark实现连接查询..
2020-07-02 10:00:00 2157
原创 Attention Transformer 精简原理总结
一. AttentionAttention函数的本质可以被描述为一个查询(query)到一系列(键key-值value)对的映射。在计算attention时主要分为三步,第一步,是将query和每个key进行相似度计算得到权重,常用的相似度函数有点积,拼接,感知机等;第二步,使用一个softmax函数对这些权重进行归一化;第三步,将权重和相应的键值value进行加权求和得到最后的attention。二. Self-Attention对于self-attention来讲,Q(...
2020-06-21 18:20:41 759
原创 Linux 部署 Elasticsearch和Kibana
官方网址https://www.elastic.co/cn/一、Elasticsearch下载最新版本,地址,https://www.elastic.co/cn/downloads/elasticsearch1 解压,免安装tar -xvf XXXcd XXX2 Runbin/elasticsearch(orbin\elasticsearch.baton Windows)如此就启动服务了,上述是前台运行, Ctrl+C结束服务后台维持运行的话,bin/e...
2020-06-12 12:26:50 361
原创 C++ 二维的数组、vector 初始化为0
1、vector 初始化为二维,元素全为0vector<vector<int> > myvec(n, vector<int>(n, 0));2、二维数组初始化为0int myvec[n][n];memset(myvec,0,sizeof(myvec));...
2020-04-08 20:02:19 16026
转载 十大经典排序算法 Python代码 动图演示
排序算法是《数据结构与算法》中最基本的算法之一。本文介绍10种常见的内部排序算法,及如何用Python实现。排序算法可以分为内部排序和外部排序,内部排序是数据记录在内存中进行排序,而外部排序是因排序的数据很大,一次不能容纳全部的排序记录,在排序过程中需要访问外存。常见的内部排序算法有:插入排序、希尔排序、选择排序、冒泡排序、归并排序、快速排序、堆排序、基数排序等。用一张图概括:...
2020-03-11 12:01:48 364 1
转载 通俗易懂解释知识图谱(Knowledge Graph)
欢迎转载,转载请注明出处https://www.cnblogs.com/huangyc/p/10043749.html欢迎沟通交流: 339408769@qq.com0. 目录1. 前言 2. 知识图谱定义 3. 数据类型和存储方式 4. 知识图谱的架构 4.1 逻辑架构 4.2 技术架构 5. 信息抽取 5.1 实体抽取(Entity Extraction) ...
2020-03-09 21:56:56 2062
原创 综述 词向量与分布式表示
从古老的one-hot表示法,到大热的Word2vec系列的分布式表示方法,再到现在惊艳的预训练模型ELMo、BERT等,技术迭代迅速,这其中包含许多内容需要我们学习,例如语言模型LM、Transformer、CBOW、SkipGram等等。接下来本文归纳梳理,逐一介绍。目录1、词的表示1、词的表示1.1 离散表示(one-hot representation)把每个...
2020-02-21 17:18:55 10007
转载 自然语言处理中的自注意力机制(Self-attention Mechanism)
自然语言处理中的自注意力机制(Self-attention Mechanism)近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中,之前我对早期注意力机制进行过一些学习总结(可见http://www.cnblogs.com/robert-dlut/p/5952032.html)。随着注意力机制的深入研究,各式各样的attention被研究者们提出...
2020-02-19 16:19:42 7097
原创 C++ 容器类 vector
vector(向量),C++中的一种容器类,它相当于一个动态的数组。用法:1.文件包含:#include<vector>2.
2020-02-12 19:50:42 2506
原创 NLP自然语言处理基础技术工具 汇总
目前,有很多开源或开放的自然语言处理工具可以供我们使用,可以方便地解决很多NLP的基础任务,例如,分词、词性标注、词干化、命名实体识别、名词短语提取等等。汇总起来方便比较,择优而用。目录1. HanLP2. SpaCy1. HanLP提供了中文依存句法分析功能。支持多种自然语言处理基本功能。Github 地址:https://github.com/hankcs/p...
2020-02-11 16:11:24 735
原创 句法分析
本文将总结句法分析的相关内容。自然语言处理的分析技术,可以大致分为三个层面。第一层是词法分析,包括分词(Word Segmentation)、词性标注(Part-of-speech Tagging)、命名实体识别(Named Entity Recognition)、词义消歧(Word Sense Disambiguation)。第二层为句法分析(syntactic parsing),句...
2020-02-11 14:15:59 7146
转载 支持向量机(SVM)常见问题
1 SVM原理SVM是一种二分类模型。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。(间隔最大化是它的独特之处),通过该超平面实现对未知样本集的分类。当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机。 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机。 当训练数据线性不可分时,通过使用核技...
2020-01-16 14:34:31 11372 1
原创 linux tensorflow keras 安装
0、非root用户安装python3直接官方下载源码然后 ./configure --prefix=/home/cxq/python3/然后 make然后 make install执行完上述步骤只能在python3/bin下面使用python3和pip3. 通过ln -s为python3建立新的链接. 如:ln -s /home/cxq/python3/bin/pyth...
2018-09-02 16:55:26 1723
转载 神经网络结构在命名实体识别(NER)中的应用
神经网络结构在命名实体识别(NER)中的应用 近年来,基于神经网络的深度学习方法在自然语言处理领域已经取得了不少进展。作为NLP领域的基础任务—命名实体识别(Named Entity Recognition,NER)也不例外,神经网络结构在NER中也取得了不错的效果。最近,我也阅读学习了一系列使用神经网络结构进行NER的相关论文,在此进行一下总结,和大家一起分享学习。1
2017-11-08 10:25:15 1286
转载 LSTM神经网络
转自 http://m.blog.csdn.net/article/details?id=52081301简单理解LSTM神经网络递归神经网络 在传统神经网络中,模型不会关注上一时刻的处理会有什么信息可以用于下一时刻,每一次都只会关注当前时刻的处理。举个例子来说,我们想对一部影片中每一刻出现的事件进行分类,如果我们知道电影前面的事件信息,那么对当前时刻事件的
2017-01-15 11:27:58 1010
转载 Java中List集合的四中遍历方式
java 遍历arrayList的四种方法转自:http://www.cnblogs.com/interdrp/p/3663602.htmlpackage com.test;import java.util.ArrayList;import java.util.Iterator;import java.util.List;public
2016-03-29 16:10:33 344
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人