- 博客(7)
- 问答 (1)
- 收藏
- 关注
原创 textsum笔记
谷歌开源新的TensorFlow文本自动摘要代码http://www.jiqizhixin.com/article/1449
2017-01-05 16:07:21 1556
转载 构建自己的智能聊天机器人
http://blog.just4fun.site/create-a-smart-chat-bot.html 构建自己的聊天机器人
2017-01-05 13:11:42 803
原创 tensorflow简介
你正在了解的的tensorflow项目可能会比 Android 系统更加深远地影响着世界! 缘起 2015年11月9日,Google发布人工智能系统TensorFlow并宣布开源。机器学习作为人工智能的一种类型,可以让软件根据大量的数据来对未来的情况进行阐述或预判。如今,领先的科技巨头无不在机器学习下予以极大投入。Facebook、苹果、微软,甚至国内的百度。Google 自然也在其中。「Ten
2017-01-03 20:45:02 779
转载 markdown编辑器简介
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引用 Ctrl
2017-01-03 20:36:08 262
原创 Encoder-Decoder模型和Attention模型
关于attention模型,知乎上很多人都推荐了一篇文章Neural Machine Translation by Jointly Learning to Align and Translate 感觉这篇文章非常的不错,里面还大概阐述了encoder-decoder(编码)模型的概念,以及传统的RNN实现。然后还阐述了自己的attention模型。记录如下:1 Encoder-Decoder模型及R
2017-01-03 10:11:32 2414
原创 深度学习笔记1:神经网络端到端学习笔记
许多重要问题都可以抽象为变长序列学习问题(sequence to sequence learning),如语音识别、机器翻译、字符识别。这类问题的特点是,1) 输入和输出都是序列(如连续值语音信号/特征、离散值的字符),2) 序列长度都不固定,3)并且输入输出序列长度没有对应关系。因此,传统的神经网络模型(DNN, CNN, RNN)不能直接以端到端的方式解决这类问题的建模和学习问题。解决变长序列的
2017-01-03 09:53:23 6293
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人