机器学习
文章平均质量分 70
rtygbwwwerr
曾在华为、搜狐担任技术研发工作,现任聚熵团队CTO,负责技术团队管理及核心技术研发。
方向:移动开发,人工智能,自然语言处理,信息检索,大数据处理,系统架构等。
展开
-
Dandelion - Eclipse Lisp Plugin
Dandelion - Eclipse Lisp Plugin转自:http://blog.csdn.net/yang_7_46/article/details/26445133Common Lisp没有一个比较简单易用的IDE,网上推荐使用的都是LispBox,但是基于Emacs编辑器,使得学习以及使用的门槛过高。Eclipse是一个非常强大的可任意扩展的开发转载 2016-06-16 10:49:17 · 785 阅读 · 0 评论 -
关于Bot系统的一篇总结性文章(也说bot--一篇survey)
也说bot–一篇surveyhttps://zhuanlan.zhihu.com/p/21626875*:粗体部分为附加说明也说bot–一篇survey张俊·引chatbot是最近一段时间非常火的一个词或者一个应用,不仅仅各大新闻媒体在热炒bot的概念,各大巨头也投入巨大的资源进行研发,arxiv上刷出bot相关的paper也更是家常便饭。炒作归炒作,PR归PR,不得不说一转载 2016-07-27 00:26:18 · 5686 阅读 · 0 评论 -
解决nvcc找不到的问题(Ubuntu16.04 CUDA 8.0)
最近在linux上安装了CUDA 8.0,但是在安装pycuda时却提示找不到nvcc命令。在terminal中输入nvcc,也是提示找不到command。但是可以确定的是,CUDA8.0,以及nvidia-cuda-toolkit已经从官方网站下载并正确安装。于是网上找了教程,说是需要在terminal中输入sudo apt-get install nvidia-cuda-toolkit原创 2017-06-23 23:44:24 · 100374 阅读 · 11 评论 -
交叉熵(Cross-Entropy)
交叉熵(Cross-Entropy)交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。1.什么是信息量?假设XX是一个离散型随机变量,其取值集合为X\mathcal{X},概率分布函数为p(x)=Pr(X=x),x∈Xp(x)=Pr(X=x),x∈\mathcal{X},我们定义事件X=x0X=x_0的信息量为: I(x0)=−log(p(x0))I(原创 2016-03-03 18:31:10 · 199473 阅读 · 39 评论 -
Neural Turing Machines-NTM系列(一)简述
Neural Turing Machines-NTM(神经图灵机)简述原创 2016-03-29 11:39:40 · 13488 阅读 · 4 评论 -
Ubuntu 16.04 pyfst安装过程
WFST 是语音识别、字符串模式匹配和文法转换中的一个常用模型,而OpenFst则是这个模型及相关算法的C++实现API。最近一段时间Python用的较多,于是打算安装一个Python的接口即PyFst一、安装OpenFst:1.确保g++已经正确安装,如果没有运行:sudo apt-get install g++2.下载安装包(点击打开链接),最新版本为1.6.3,但是不知道原创 2017-09-27 15:50:50 · 1692 阅读 · 0 评论 -
凸(Convex)函数定义
转自知乎:https://www.zhihu.com/question/20014186关于Convex Function的解释,个人觉得说得很清楚,故转载记录作者:匿名用户链接:https://www.zhihu.com/question/20014186/answer/27194360来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。转载 2017-12-25 13:03:22 · 24022 阅读 · 0 评论 -
神经网络模型压缩之Knowledge Distillation
神经网络模型压缩之Knowledge Distillation1. Background随着深度学习理论的普及和PC计算能力的提高, Neural Network也日益趋于复杂化–越来越深和越来越大, 比如VGG系列,深度均在10层以上, 残差网络的深度更是从数十到一百以上. 复杂的网络模型带来的是超强的规则学习能力, 虽然以现在动辄几十或上百多机GPU并行的计算能力而言, 这样的巨大...原创 2018-03-09 13:46:10 · 11818 阅读 · 2 评论 -
tensorflow0.8.0 运行报错Couldn't open CUDA library libcupti.so.7.5
tensorflow0.8.0 运行报错Couldn't open CUDA library libcupti.so.7.5最近配置Tensorflow 0.8.0+Eclipse+PyDev开发编译环境时,遇到一个问题:Couldn't open CUDA library libcupti.so.7.5在运行 minist/minist_with_summaries.py原创 2016-06-07 18:46:11 · 7360 阅读 · 0 评论 -
RNN学习笔记(三)-LSTM网络
RNN学习笔记(三)-LSTM网络为了解决RNN的梯度问题,提出了一种优化的RNN网络——LSTM(Long short-term memory):1.RNN的梯度问题及CEC2.LSTM的网络结构3.参考文章1.BPTT算法回顾及符号定义2.误差传导分析3.参考文章1.LONG SHORT-TERM MEMORY,Neural Computation原创 2016-04-22 18:09:00 · 3046 阅读 · 0 评论 -
RNN学习笔记(六)-GRU,LSTM 代码实现
RNN学习笔记(六)-GRU,LSTM 代码实现原创 2016-04-22 18:07:27 · 19057 阅读 · 9 评论 -
Softmax公式推导
UFLDL的教程(http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92)中提到了Softmax回归,直接给出了梯度更新公式,但是没有给出公式推导。这里对公式推导进行简单的补充说明。原创 2014-12-25 16:34:13 · 4900 阅读 · 2 评论 -
RNN学习笔记(二)-Gradient Analysis
RNN学习笔记(二)-Gradient AnalysisRNN网络具有对时间序列建模的特性,其在时间轴上可以展开成一个多层前馈网络,因此也存在多层网络同样的问题,随着网络递归层数的增加,误差梯度的传递将出现不稳定的情况(消散或膨胀),下边将进行深入分析原创 2016-01-07 15:47:11 · 1909 阅读 · 1 评论 -
神经网络模型算法与生物神经网络的最新联系
来源:http://blog.csdn.net/u014365862/article/details/50935300偶然翻了一下微博,发现了@爱可可-爱生活老师转的,Hinton教授今年六月末在剑桥的一个讲座。 视频度娘链接:http://pan.baidu.com/s/1eQjj0rS整个讲座前半部分基本在回顾DL目前的几个成就:RBM、DNN、CNN、RNN、Dropout以及在CV、N转载 2016-03-30 15:58:06 · 1450 阅读 · 0 评论 -
RNN学习笔记(一)-简介及BPTT RTRL及Hybrid(FP/BPTT)算法
RNN网络的学习算法-BPTT笔记本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:Markdown和扩展Markdown简洁的语法代码块高亮图片链接和图片上传LaTex数学公式UML序列图和流程图离线写博客导入导出Markdown文件丰富的快捷键快捷键加粗 Ctrl + B 斜体 Ctrl + I 引原创 2015-12-29 16:14:05 · 15237 阅读 · 1 评论 -
神经网络的简单数学解释
神经网络的简单数学解释原创 2016-03-07 17:36:34 · 2527 阅读 · 0 评论 -
Neural Turing Machines-NTM系列(二)开发环境搭建
神经图灵机Neural Turing Machines-NTM系列(二)开发环境搭建原创 2016-03-29 11:46:43 · 2566 阅读 · 0 评论 -
Neural Turing Machines-NTM系列(三)ntm-lasagne源码分析
Neural Turing Machines-NTM系列(三)ntm-lasagne源码分析原创 2016-03-29 11:47:36 · 3062 阅读 · 2 评论 -
神经网络可视化(Visualization of Neural Network )
神经网络可视化(Visualization of Neural Network )相对于传统的ML模型,NN由于其自身所特有的多层非线性的结构而导致难以对其工作原理进行透彻的理解。比如,我们很难理解网络将一个输入x判断为某一类别c时,其输入向量x中的每一个特征分别对这个结果贡献了多大,找出哪些输入特征起到了关键作用,这对判断网络是否正常工作是很重要的。尤其在NLP领域,由于现在大多数模型的输入...原创 2018-10-07 20:53:27 · 6694 阅读 · 1 评论