人工智能
文章平均质量分 88
yangdelong
这个作者很懒,什么都没留下…
展开
-
Attention in RNN
https://zhuanlan.zhihu.com/p/42724582在传统的RNN Encoder-Decoder模型中,在编码的过程中,将 时的状态 和 时刻的数据 输入到 时刻的RNN单元中,得到 时刻的状态 ,经过 个时间片后,得到长度等于隐节点数量的特征向量 。在解码的过程中,将特征向量 和上个时间片预测的输出 输入到RNN的单元中,得到该时刻的输出 ,经过 ...转载 2018-12-18 17:33:57 · 1427 阅读 · 0 评论 -
DenseCap:Fully Convolutional Localization Networks for Dense Captioning
文章来源: http://blog.csdn.net/He_is_all/article/details/54973614论文作者主页:http://cs.stanford.edu/people/karpathy/densecap/论文:https://arxiv.org/abs/1511.07571Abstract:文中介绍了密集字幕任务,它包含定位及利用自然语言描述定位物体转载 2017-11-05 23:35:47 · 1249 阅读 · 0 评论 -
You Only Look Once: Unified, Real-Time Object Detection
文章来源: http://blog.csdn.net/tangwei2014/article/details/50915317这是继RCNN,fast-RCNN 和 faster-RCNN之后,rbg(Ross Girshick)大神挂名的又一大作,起了一个很娱乐化的名字:YOLO。 虽然目前版本还有一些硬伤,但是解决了目前基于DL检测中一个大痛点,就是速度问题。 其增转载 2017-11-05 21:59:11 · 419 阅读 · 0 评论 -
关于深度学习中的注意力机制,这篇文章从实例到原理都帮你参透了
文章来源:https://mp.weixin.qq.com/s/4b2javEpriP0L_PHKNagtw作者:张俊林,中科院软件所博士,曾担任阿里巴巴、百度、用友等公司资深技术专家及技术总监职位,目前在新浪微博AI实验室担任资深算法专家,关注深度学习在自然语言处理方面的应用。 最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音转载 2017-11-04 15:45:57 · 3170 阅读 · 0 评论 -
一文读懂Hinton最新Capsules论文,CNN 未来向何处去
文章来源: 新智元 https://mp.weixin.qq.com/s/gdke9E1A3eRUzgidp9uOqg 邓侃 Hinton 上周发表的一篇论文 Dynamic Routing Between Capsules 提出用 Capsule 这个概念代替反向传播,引起广泛关注,大数医达创始人,CMU计算机学院暨机器人研究所博士邓侃用浅显的语言梳理解读了论文。邓侃认为转载 2017-11-04 15:40:52 · 791 阅读 · 0 评论 -
深度强化学习 ( DQN ) 初探
文章来源: https://www.qcloud.com/community/article/549802?fromSource=gwzcw.114127.114127.1141271. Google的DQN论文2015年2月,Google在Nature上发表了一篇论文(见附件):Human-level control through deep reinforc转载 2017-10-25 00:32:07 · 2288 阅读 · 0 评论 -
Deep Reinforcement Learning 基础知识
文章来源: http://blog.csdn.net/songrotek/article/details/50580904Introduction深度增强学习Deep Reinforcement Learning是将深度学习与增强学习结合起来从而实现从Perception感知到Action动作的端对端学习的一种全新的算法。简单的说,就是和人类一样,输入感知信息比如视觉,然后转载 2017-10-25 00:30:35 · 462 阅读 · 0 评论 -
新型类脑神经网络仅凭极少样本就成功攻破验证码
文章来源: https://www.toutiao.com/i6482213361084793357/?tt_from=weixin&utm_campaign=client_share&from=groupmessage&app=news_article&utm_source=weixin&iid=16626894920&utm_medium=toutiao_android&wxshare_cou转载 2017-11-01 21:35:14 · 996 阅读 · 0 评论 -
通信系统信号发生器原理
文章来源: http://www.rfsister.com/article/23577537.html信号源是四大通用电子测量仪器之一,其他三种是:网络分析仪,频谱分析仪和示波器。这篇介绍信号源所涉及的相关基础知识。信号源的最常用的功能是用来产生一个正弦波,所以先从介绍正弦波的特征开始本篇文章。 一、正弦波的信号特性 通过正弦波信号的表达等式,可以反映其信号所包转载 2017-11-08 19:23:35 · 2966 阅读 · 0 评论 -
RNN与LSTM介绍
文章来源: http://blog.csdn.net/Dark_Scope/article/details/47056361前言好久没用正儿八经地写博客了,csdn居然也有了markdown的编辑器了,最近花了不少时间看RNN以及LSTM的论文,在组内『夜校』分享过了,再在这里总结一下发出来吧,按照我讲解的思路,理解RNN以及LSTM的算法流程并推导一遍应该是没有问转载 2017-10-21 23:54:27 · 664 阅读 · 0 评论 -
Hinton介绍胶囊理论的论文
文章来源:https://mp.weixin.qq.com/s/00UAn7m_yeYld-s60NFA8A 雷锋字幕组 AI科技评论AI 科技评论按:昨天深度学习教父Geoffrey Hinton关于Capsule(胶囊)的新论文一发出,马上引起了热烈讨论。AI 科技评论微信公众号发出的解读文章下也收到了踊跃的留言,有读者表示“自己也有这样的想法”(笑)。今天转载 2017-10-29 21:41:21 · 4978 阅读 · 0 评论 -
用于图像分割的卷积神经网络:从R-CNN到Mask R-CNN
文章来源: 机器之心选自Athelas作者:Dhruv Parthasarathy机器之心编译参与:王宇欣、hustcxy、黄小天卷积神经网络(CNN)的作用远不止分类那么简单!在本文中,我们将看到卷积神经网络(CNN)如何在图像实例分割任务中提升其结果。自从 Alex Krizhevsky、Geoff Hinton 和 Ilya Sutskever 在 2012 年赢转载 2017-11-05 23:51:04 · 10773 阅读 · 1 评论 -
生成对抗网络(GAN)的理论与应用完整入门介绍
文章来源:https://blog.csdn.net/blood0604/article/details/73635586?locationNum=1&fps=1本文包含以下内容:1.为什么生成模型值得研究2.生成模型的分类3.GAN相对于其他生成模型相比有什么优势4.GAN基本模型5.改进的GANs6.GAN有哪些应用7.GAN的前沿研究一、为什么生成模型值得研究主要基于以下几个原因:1...转载 2018-05-28 16:04:23 · 17717 阅读 · 1 评论 -
详解Transformer (Attention Is All You Need)
https://zhuanlan.zhihu.com/p/48508221前言注意力(Attention)机制[2]由Bengio团队与2014年提出并在近年广泛的应用在深度学习中的各个领域,例如在计算机视觉方向用于捕捉图像上的感受野,或者NLP中用于定位关键token或者特征。谷歌团队近期提出的用于生成词向量的BERT[3]算法在NLP的11项任务中取得了效果的大幅提升,堪称2018年深...转载 2018-12-18 17:30:12 · 12911 阅读 · 4 评论 -
BERT详解
https://zhuanlan.zhihu.com/p/48612853前言BERT(Bidirectional Encoder Representations from Transformers)近期提出之后,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点:使用了Transforme...转载 2018-12-18 17:16:36 · 32919 阅读 · 3 评论 -
张正友老师摄像机标定算法详解
读者可以参考博文:https://blog.csdn.net/u010128736/article/details/52860364https://blog.csdn.net/lsh_2013/article/details/47617909https://zhuanlan.zhihu.com/p/24651968https://zhuanlan.zhihu.com/p/24305...转载 2018-08-02 11:20:26 · 2324 阅读 · 1 评论 -
Deep Forest,非神经网络的深度模型,周志华老师最新之作,三十分钟理解!
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld。 技术交流QQ群:433250724,欢迎对算法、技术感兴趣的同学加入。深度学习最大的贡献,个人认为就是表征学习(representation learning),通过端到端的训练,发现更好的features,而后面用于分类(或其他任务)的输出function,往往也只是普通的softmax(或者其他一些经典...转载 2018-07-11 15:49:04 · 720 阅读 · 0 评论 -
Python正则表达式指南
https://www.cnblogs.com/huxi/archive/2010/07/04/1771073.html本文介绍了Python对于正则表达式的支持,包括正则表达式基础以及Python正则表达式标准库的完整介绍及使用示例。本文的内容不包括如何编写高效的正则表达式、如何优化正则表达式,这些主题请查看其他教程。注意:本文基于Python2.4完成;如果看到不明白的词汇请记得百度谷歌或维基...转载 2018-07-04 18:08:53 · 259 阅读 · 0 评论 -
聊聊并发 生产者消费者模式
http://ifeve.com/producers-and-consumers-mode/本文首发于InfoQ 作者:方腾飞 校对:张龙在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。为什么要使用生产者和消费者模式在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产...转载 2018-07-01 20:01:22 · 371 阅读 · 0 评论 -
高性能网关设备及服务实践
童琳、郑胜利 鹅厂网事 2014-11-28针对海量的网络流量,转发性能是我们最关键的一个方面,那构建高性能的后台服务器有哪些关键的技术和需要注意的地方,今天邀请了后台开发同学童琳和郑胜利来和大家一起谈谈。一、引言随着互联网的高速发展,内容量的提升以及对内容智能的需求、云产业的快速突起,作为互联网的计算基石服务器的形态以及使用成为了炙手可热的话题,全球各家大型互联网公司都持续的在服务器平台上有非常...转载 2018-07-01 19:45:44 · 796 阅读 · 0 评论 -
python安装numpy和pandas
最近要对一系列数据做同比比较,需要用到numpy和pandas来计算,不过使用python安装numpy和pandas因为linux环境没有外网遇到了很多问题就记下来了。首要条件,python版本必须是2.7以上。linux首先安装依赖包yum -y install blas blas-devel lapack-devel lapackyum -y install seaborn scipyy...转载 2018-06-19 17:18:50 · 5548 阅读 · 0 评论 -
【论文笔记】Spatial Transformer Networks
文章来源:https://blog.csdn.net/shaoxiaohu1/article/details/51809605参考文献:**Jaderberg M, Simonyan K, Zisserman A. Spatial transformer networks[C]//Advances in Neural Information Processing Systems. 2015: 20...转载 2018-06-14 17:23:35 · 760 阅读 · 0 评论 -
全方位解读生成对抗网络的原理及未来
独家 | GAN之父NIPS 2016演讲现场直击:全方位解读生成对抗网络的原理及未来(附PPT)原创: 加号 吴攀 机器之心 2016-12-10机器之心原创作者:机器之心分析师加号、吴攀http://www.sohu.com/a/121189842_465975 当地时间 12 月 5 日,机器学习和计算神经科学的国际顶级会议第 30 届神经信息处理系统大会(NIPS...转载 2018-05-29 10:29:21 · 11563 阅读 · 2 评论 -
基于RNN的Attend机制
文章来源: http://blog.csdn.net/shenxiaolu1984/article/details/51493673Xu, Kelvin, et al. “Show, attend and tell: Neural image caption generation with visual attention.” arXiv preprint arXiv:15转载 2017-10-21 18:55:11 · 564 阅读 · 0 评论 -
分形神经网络
来自新智元的一个博文。http://www.toutiao.com/i6290496834213249537/【题目】分形网络:无残差的极深神经网络(FractalNet: Ultra-Deep Neural Networks without Residuals)【作者】芝加哥大学 Gustav Larsson,丰田工大学芝加哥分校 Michael Maire转载 2017-10-28 17:29:32 · 2640 阅读 · 0 评论 -
Windows下Anaconda环境安装Tensorflow
1. 安装好Anaconda后请确保以下几个路径已经添加到Window系统环境变量的path中C:\ProgramData\Anaconda3 //C:\ProgramData\Anaconda3是我安装Anaconda的路径C:\ProgramData\Anaconda3\Scripts //Anaconda路径的Scripts子文件夹 C:\Progra...原创 2017-08-29 00:23:28 · 2986 阅读 · 0 评论 -
大数据及人工智能基础系列8 图解反向传播算法
文章来源:http://www.cnblogs.com/charlotte77/p/5629865.html一文弄懂神经网络中的反向传播法——BackPropagation 最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推转载 2017-08-27 13:44:29 · 1340 阅读 · 0 评论 -
大数据与人工智能基础系列7 反向传导算法理论推导
文章来源:http://ufldl.stanford.edu/wiki/index.php/%E5%8F%8D%E5%90%91%E4%BC%A0%E5%AF%BC%E7%AE%97%E6%B3%95反向传导算法假设我们有一个固定样本集 ,它包含 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例 ,其代价函数为:这是一个(二分转载 2017-08-27 13:35:24 · 559 阅读 · 0 评论 -
人工智能开发环境 使用Anaconda安装TensorFlow
版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]建议参照最新的tensorflow安装步骤(Linux,官方网站经常访问不是很稳定,所以给了一个github的地址):https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/install/instal转载 2017-08-27 11:30:33 · 1472 阅读 · 0 评论 -
人工智能开发环境 Anaconda使用
文章来源:http://www.jianshu.com/p/2f3be7781451#Anaconda使用总结2016.7.19 PeterYuan序Python易用,但用好却不易,其中比较头疼的就是包管理和Python不同版本的问题,特别是当你使用Windows的时候。为了解决这些问题,有不少发行版的Python,比如WinPython、Anaconda等,这些发行版将pyt转载 2017-08-27 11:15:08 · 2612 阅读 · 0 评论 -
大数据与人工智能复习系列6 误差函数
交叉熵误差函数相比平方误差函数具有梯度陡峭,训练过程中不容易停止到缓坡的特点交叉熵误差可以表示为 预测量Y*i 与实际期望输出的logYi 乘积和可以参考这篇文章:http://blog.csdn.net/lanchunhui/article/details/50970625p(xi)logp(xi)转载 2017-08-26 10:58:31 · 348 阅读 · 0 评论 -
大数据及人工智能基础复习5 Word2Vec
Word2vec是 谷歌工程师提出的把文本映射成矢量的方法,可以参考如下两篇文章简介可以参考:https://www.jianshu.com/p/471d9bfbd72f原理可以参考:http://blog.csdn.net/itplus/article/details/37969519http://www.cnblogs.com/pinard/p/7160330.html...转载 2017-08-26 10:43:05 · 269 阅读 · 0 评论 -
大数据及人工智能基础知识复习系列1 二叉树及二叉搜索树
我将陆续讲解一些人工智能基础理论和算法。帮助大家系统学习人工智能知识。由于现在大家对这方面讨论很多,我将不会重复造车,网络上已有的知识会直接拿来分享。感谢各位网友的分享精神。二叉树是数据结构的一个重要基础。是后续讲解B B+树的基础。感谢Vamei的分享纸上谈兵: 树, 二叉树, 二叉搜索树作者:Vamei 出处:http://www.cnblogs.com/v转载 2017-08-06 11:47:56 · 851 阅读 · 0 评论 -
大数据及人工智能复习系列4 遗传算法
文章来源: 机器之心几天前,我着手解决一个实际问题——大型超市销售问题。在使用了几个简单模型做了一些特征工程之后,我在排行榜上名列第219名。虽然结果不错,但是我还是想做得更好。于是,我开始研究可以提高分数的优化方法。结果我果然找到了一个,它叫遗传算法。在把它应用到超市销售问题之后,最终我的分数在排行榜上一下跃居前列。没错,仅靠遗传算法我就从219名转载 2017-08-20 16:56:02 · 5996 阅读 · 3 评论 -
大数据及人工智能基础系列3 文本挖掘的TF-IDF计算
文章来源:http://blog.csdn.net/eastmount/article/details/50323063在文本聚类、文本分类或者比较两个文档相似程度过程中,可能会涉及到TF-IDF值的计算。这里主要讲述基于Python的机器学习模块和开源工具:scikit-learn。 希望文章对你有所帮助,相关文章如下: [python爬虫]转载 2017-08-19 19:24:44 · 6704 阅读 · 0 评论 -
Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift 阅读笔记与实现
译文转自 http://blog.csdn.net/happynear/article/details/44238541今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节。 这次先讲Google的这篇《Batch Normalization Accelerating Deep Network Train转载 2017-09-24 13:55:23 · 381 阅读 · 0 评论 -
简述生成式对抗网络
本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,以及它与对抗网络的关系,然后解释了对抗网络的每个组成部分,再结合算法流程和代码实现来解释具体是如何实现并执行这个算法的,最后通过给出一个基于对抗网络改写的去噪网络,效果虽然挺差的,但是还是挺有意思的。【转载请注明出处】chenrudan.github.io本文主要阐述了对生成式对抗网络的理解,首先谈到了什么是对抗样本,转载 2017-09-15 23:51:22 · 1655 阅读 · 0 评论 -
Deepdream 实现
文章来源: http://blog.csdn.net/Yan_Joy/article/details/54343806环境准备deepdream还是基于python和caffe深度网络的,因此大概需要以下环境:Standard Python scientific stack: NumPy, SciPy, PIL, IPython. Those lib转载 2017-10-28 12:59:39 · 1189 阅读 · 0 评论 -
从GoogLeNet架构到deep dream模型
文章来源: http://blog.csdn.net/diligent_321/article/details/53292484虽然深度神经网络在计算机视觉方面的效果非常显著,但至今还没有非常严格的理论支撑。最开始学习CNN的时候,采用的都是手写体识别的例子,对其最直观的解释即随着层数增加,所学到的特征越来越抽象(大致按照“点-> 线->角->整体轮廓”的顺序)。同样地,谷歌技转载 2017-10-28 12:55:32 · 464 阅读 · 0 评论 -
深度 | 生成对抗网络初学入门:一文读懂GAN的基本原理(附资源)
生成对抗网络是现在人工智能领域的当红技术之一。近日,Sigmoidal.io 的博客发表了一篇入门级介绍文章,对 GAN 的原理进行了解释说明。另外,在该文章的最后还附带了一些能帮助初学者自己上手开发实验的资源(包含演讲、教程、代码和论文),其中部分资源机器之心也曾有过报道或解读,读者可访问对应链接查阅。转载 2017-09-12 23:27:53 · 5067 阅读 · 2 评论