- 博客(4)
- 收藏
- 关注
原创 第五次作业——利用Seq2seq框架进行小说文本生成
第五次作业——利用Seq2seq框架进行小说文本生成文章目录第五次作业——利用Seq2seq框架进行小说文本生成前言一、Seq2seq基本原理1.Encoder-Decoder二、使用步骤1.引入库2.读入数据总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考一、Seq2seq基本原理seq2seq是2014年是Google
2021-05-28 14:18:56 806
原创 第四次作业——利用Word2Vec模型训练Word Embedding
第四次作业——利用Word2Vec模型训练Word Embedding文章目录第四次作业——利用Word2Vec模型训练Word Embedding前言一、word2vec二、使用步骤1.引入库2.读入数据总结前言在自然处理领域(NLP),词映射(word embedding)是最重要的技术之一,他实现了将一个不可量化的单词映射到一个实数向量。Word embedding能够表示出文档中单词的语义和与其他单词的相似性等关系。它已经被广泛应用在了推荐系统和文本分类中。本文将简要介绍word emb
2021-05-15 12:16:05 1200
原创 深度学习与自然语言处理--Topic model 无监督学习
第三次作业–Topic model 无监督学习目录第三次作业--Topic model 无监督学习一、Topic model是什么?二、LDA算法1.LDA的引入2.LDA算法简介三、实验流程四、实验结果附录一、Topic model是什么?主题模型(Topic Model)是以非监督学习的方式对文档的隐含语义结构(latent semantic structure)进行聚类(clustering)的统计模型。主题模型(Topic Model)是一种常用的文本挖掘工具,用于发现文本主体中的隐藏语
2021-05-01 20:26:01 755
原创 深度学习与自然语言处理:中文信息熵的计算
深度学习与自然语言处理:中文信息熵的计算实验题目实验内容信息熵条件信息熵jieba分词系统——python中文分词系统语料预处理一元模型词频统计及信息熵计算结果展示实验题目首先阅读An Estimate of an Upper Bound for theEntropy of English来计算所提供数据库中文的平均信息熵实验内容信息熵1948年,为了解决信息量化的问题,香农从热力学中借用了热熵的概念提出了“信息熵”的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息
2021-04-15 22:38:35 2085 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人