nlp
文章平均质量分 71
one-莫烦
keep going
展开
-
一文读懂LSTM和GRU
简介LSTM与GRU原创 2021-12-08 11:42:48 · 2626 阅读 · 0 评论 -
seq2seq模型
seq2seq的一些用法原创 2022-08-04 17:20:32 · 647 阅读 · 2 评论 -
你一定能看懂的tf.nn.bidirectional_dynamic_rnn()详解
bidirectional_dynamic_rnn的使用详解原创 2022-07-14 10:49:56 · 734 阅读 · 0 评论 -
简单易懂的word2vec
Skip-gram 和 CBOW 模型如果是用一个词语作为输入,来预测它周围的上下文,那这个模型叫做『Skip-gram 模型』而如果是拿一个词语的上下文作为输入,来预测这个词语本身,则是 『CBOW 模型』Skip-gram 和 CBOW 的简单情形我们先来看个最简单的例子。上面说到, y 是 x 的上下文,所以 y 只取上下文里一个词语的时候,语言模型就变成:用当前词 x 预测它的下一个词 y但如上面所说,一般的数学模型只接受数值型输入,这里的 x 该怎么表示呢?显然不能用 Word2ve原创 2022-02-15 15:39:26 · 224 阅读 · 0 评论 -
DSSM双塔模型损失部分详解
DSSM是把句子映射为向量,利用距离公式来表示文本间的相似度。DSSM在信息检索,文本排序,问答,图片描述,机器翻译等由广泛应用。网络结构DSSM模型的整体结构图如图所示,Q代表Query信息,D表示Document信息。(1)Term Vector:表示文本的Embedding向量;(2)Word Hashing技术:为解决Term Vector太大问题,对bag-of-word向量降维;(3)Multi-layer nonlinear projection:表示深度学习网络的隐层;(4)原创 2021-12-31 10:45:50 · 1997 阅读 · 0 评论