段智华的博客

热烈祝贺王家林大咖2018年清华大学新书《SPARK大数据商业实战三部曲》微信公众号:从零起步学习人工智能 ,欢迎关注访问!...

2018年新春报喜!热烈祝贺王家林大咖大数据经典传奇著作《SPARK大数据商业实战三部曲》 畅销书籍 清华大学出版社发行上市!

2018年新春报喜!热烈祝贺王家林大咖大数据经典传奇著作《SPARK大数据商业实战三部曲》畅销书籍 清华大学出版社发行上市!本书基于Spark 2.2.0最新版本(2017年7月11日发布),以Spark商业案例实战和Spark在生产环境下几乎所有类型的性能调优为核心,以Spark内核解密为基石,...

2018-02-13 19:47:15

阅读数 3575

评论数 9

第一节课(系列六):从零起步编码实现多层次神经网络

接下来创建输出层Output layer。 将之前创建Node节点的代码复制过来进行修改,作为输出层,给神经元节点命名的时候命名为Output,输出层的节...

2019-03-09 07:05:28

阅读数 38

评论数 0

HMM(三)维特比算法推测隐藏状态序列

仍沿用上一节中HMM模型盒子和球的例子,已知盒子与球的模型及取3次球以后球的颜色观测序列{红,白,红},需推测三次取球可能对应的盒子序列(隐藏状态序列),...

2019-03-07 08:54:45

阅读数 23

评论数 0

HMM(二)前向算法计算HMM观测序列的概率

沿用上一节中HMM模型盒子和球的例子,我们使用前向算法计算HMM观测序列的概率。依次取3次球,得到球的颜色的观测序列:O={红,白,红}在第一个时刻取到的是红色...

2019-03-06 08:55:59

阅读数 45

评论数 0

隐马尔科夫模型HMM(Hidden Markov Model)学习

在深度学习领域,我们学习了深度神经网络、RNN、LSTM、Seq2Seq等时序模型, 机器学习的隐马尔科夫模型HMM(Hidden Markov Model)也...

2019-03-05 13:22:52

阅读数 25

评论数 0

第一节课(系列四):从零起步编码实现多层次神经网络

通过代码实现神经网络的节点结构功能 Create_AI_Framework_In5Classes(Class1)版本的Node.py源代码: 1. # -*- coding: utf-8 -*-2. class Node: 3. #第一步:设置和访问Neuron在全局所处...

2019-03-04 20:33:11

阅读数 53

评论数 0

第一节课(系列二):从零起步编码实现多层次神经网络

第一节课(系列二):从零起步编码实现多层次神经网络 详细内容请关注微信公众号:从零起步学习人工智能

2019-03-02 08:00:42

阅读数 71

评论数 0

第一节课:从零起步编码实现多层次神经网络

第一节课:从零起步编码实现多层次神经网络 详细内容请关注微信公众号:从零起步学习人工智能 https://mp.weixin.qq.com/s?__biz=MzU3OTc4OTEzNw==&mid=2247483673&idx=1&a...

2019-02-28 19:47:12

阅读数 50

评论数 0

第15节课:AI框架图片识别之数据解析、Network初始化、Sigmoid激活函数及Feedforward函数

第15节课:AI框架图片识别之数据解析、Network初始化、Sigmoid激活函数及Feedforward函数 详细内容请关注微信公众号:从零起步学习人工智能  https://mp.weixin.qq.com/s?__biz=MzU3OTc4OTEzNw==&mid...

2019-02-27 13:09:48

阅读数 61

评论数 0

已优先申请到了duanzhihua博客域名(duanzhihua.blog.csdn.net),欢迎大家访问!

 已优先申请到了duanzhihua 博客域名(duanzhihua.blog.csdn.net),欢迎大家访问! 

2019-02-25 16:15:26

阅读数 40

评论数 0

Harvard NLP The Annotated Transformer 学习之代码

Harvard NLP The Annotated Transformer 学习代码: The Annotated Transformer 论文: 注意力模型:                                                          多注意力模...

2019-02-23 22:27:18

阅读数 182

评论数 0

Harvard NLP The Annotated Transformer 学习

Harvard NLP The Annotated Transformer  复现Google公司的Transformer论文 “Attention is All You Need” 的Transformer 在过去的一年里一直在很多人的脑海中出现。Transformer在机器翻译质量上有重...

2019-02-16 09:03:55

阅读数 82

评论数 0

BERT可视化工具bertviz体验

BERT可视化工具体验:bertviz是用于BERT模型注意力层的可视化页面。 1,bertviz的github地址:https://github.com/jessevig/bertviz 2,将bertviz项目clone到本地,启动Jupyter notebbok。 D:\Pychar...

2019-02-15 21:42:10

阅读数 95

评论数 3

Seq2Seq模型应用案例之ScheduledEmbeddingTrainingHelper

Seq2Seq模型应用案例之ScheduledEmbeddingTrainingHelper:         Tensorflow最新的Seq2Seq案例请参考官网:https://github.com/tensorflow/nmt 这里不再赘述。        在之前的博客中https:/...

2019-02-14 21:57:14

阅读数 58

评论数 0

Seq2Seq模型应用案例

Seq2Seq模型应用案例( : Seq2Seq是Encoder-Decoder(编码器与解码器)模型,输入是一个序列,输出也是一个序列,适用于输入序列与输出序列长度不等长的场景,如机器翻译、人机对话、聊天机器人等。 本案例参考网友的github代码,实现一个Seq2Seq对话的简单例子,训练...

2019-02-12 20:47:38

阅读数 307

评论数 0

致敬UC Berkeley AI Project -MindsDB项目!

       MindsDB是美国加州大学伯克利分校的开源研究项目!MindsDB的目标是让开发人员在他们的项目中使用人工神经网络变得非常简单,为所有能够接触到数据的人构建mindsdb,输入几行代码就能实现深度学习神经网络。UC Berkeley AI Project -mindsdb的gith...

2019-01-29 15:27:48

阅读数 157

评论数 0

重装Python 、Anaconda、Pycharm、Pytorch 1.0.0 Tensorflow

重装Python 、Anaconda、Pycharm、Pytorch 1.0.0  Tensorflow系统: 在安装PyQt库的时候Python2.7与3.6版本不兼容,导致Python运行程序报错:process finished with exit code -1073741819 (0x...

2019-01-28 19:10:32

阅读数 121

评论数 0

UC Berkeley AI Project -MindsDB 学习

UC Berkeley AI Project -MindsDB 学习         MindsDB的目标是让开发人员在他们的项目中使用人工神经网络变得非常简单,为所有能够接触到数据的人构建mindsdb,输入几行代码就能实现深度学习神经网络。        UC Berkeley AI Pr...

2019-01-21 20:57:45

阅读数 149

评论数 0

精确率(Precision)、召回率(Recall)、准确率(Accuracy)、F值(F-Measure)

精确率(Precision)、召回率(Recall)、准确率(Accuracy)、F值(F-Measure) 的理解:   例如:对图片猫、狗、兔子进行预测分类,如下图:  图片为猫,预测分类是猫的图片数:5       图片为猫,预测分类是狗的图片数:3 图片为猫,预测分类是兔子的图片数:0...

2019-01-08 16:18:55

阅读数 69

评论数 0

Pytorch使用Google BERT模型进行中文文本分类

Pytorch使用Google BERT模型进行中文文本分类 在前一篇博客中https://blog.csdn.net/duan_zhihua/article/details/85121310,我们已经实现了Tensorflow使用CNN卷积神经网络以及RNN(Lstm、Gru)循环神经网络进行...

2019-01-04 14:44:56

阅读数 1623

评论数 0

提示
确定要删除当前文章?
取消 删除