![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
五癫
武汉理工大学软件工程
展开
-
人工智能第一讲:发展历史图解
1.什么是人工智能 摘自百度:人工智能(Aritificial Intelligence, AI)是计算机科学的一个分支,它企图了解智能的实质,并生产出一种以人类智能相似的方式做出反应的智能机器。人工智能的目的是模拟人的意识、思维的信息过程。 目前该领域的研究方向主要包括:机器人、语言识别、图像识别、自然语言处理和专家系统等,用来替代人类实现识别、认知、分类和决策等多种功能。2.人工智...原创 2018-06-05 14:48:31 · 11416 阅读 · 0 评论 -
人工智能技术体系和应用领域
本来想自己整理资料画图的,网上突然发现一个总结得比较全面的图解,故转存如下。原图来源已经无法查证,若侵犯作者权益,请留言与我。在下图中,我们主要关注于技术体系。...转载 2018-06-06 21:00:50 · 1722 阅读 · 0 评论 -
NLTK学习笔记(一):语言处理和Python
NLTK学习笔记(一):语言处理和Python目录目录 nltk资料下载 文本和词汇 搜索文本 计数词汇(去重、定位) 词链表 自然语言简单数学统计 频率分布 细粒度的选择词 双连词和词汇搭配 词长分布 目录nltk资料下载import nltknltk.download()其中,download() 参数默认...转载 2018-10-15 19:54:45 · 288 阅读 · 0 评论 -
逻辑回归算法步骤
结合西瓜书理解原创 2019-02-15 11:11:08 · 2826 阅读 · 0 评论 -
Skip-Gram直观理解( Word2Vec Tutorial - The Skip-Gram Model, Word2Vec (Part 1): NLP With Deep Learning翻译)
什么是Word2Vec和Embeddings? Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。那么它是如何帮助我们做自然语言处理呢?Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原先所属的空间映射到新的...翻译 2019-02-16 10:42:50 · 915 阅读 · 0 评论 -
BERT:用于语义理解的深度双向预训练转换器(Transformer)
鉴于最近BERT在人工智能领域特别火,但相关中文资料却很少,因此将BERT论文理论部分(1-3节)翻译成中文以方便大家后续研究。· 摘要 本文主要介绍一个名为BERT的模型。与现有语言模型不同的是,BERT旨在通过调节所有层中的上下文来进行深度双向的预训练。因此,预训练的BERT表示可以通过另外的输出层进行调整,以创建用于广泛任务的状态模型,例如问题转换和语言参考,而无需实质的任...转载 2019-03-07 09:30:38 · 3802 阅读 · 0 评论 -
激活函数对比分析
1.激活函数的作用提供网络的非线性建模能力2.激活函数中的常见概念饱和当一个激活函数h(x)满足 limn→+∞h′(x)=0limn→+∞h′(x)=0 时,我们称之为右饱和。当一个激活函数h(x)满足 limn→−∞h′(x)=0limn→−∞h′(x)=0 时,我们称之为左饱和。当一个激活函数,既满足左饱和又满足又饱和时,我们称之为饱和。硬饱和与软饱和对任意的...原创 2019-03-11 12:54:03 · 1245 阅读 · 0 评论 -
对于word-embedding的理解和感悟1
时间:2019.4.3地点:武汉状态:离职在家今天天气很好,阳光照射到绿叶上,一片兴兴向荣。不谈未来职业规划,不论工作面试准备,抛去这些让人疲惫的东西,突然想回归到纯粹知识的本质之中。问题的开端:复兴的深度学习让人们试图用计算机模拟人类的感知,认知,决策和自我学习能力。计算机能处理的东西只有数字,所以我们第一步是要把现实世界的东西用数字尽可能的描述出来。比如:一张图可以表示成三...原创 2019-04-03 15:03:07 · 1138 阅读 · 0 评论