![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TuringMachine
wishchin
CV算法工程师:从事室内场景感知方面工作,完成算法实验和软件开发。
展开
-
深度学习:又一次推动AI梦想(Marr理论、语义鸿沟、视觉神经网络、神经形态学)
几乎每一次神经网络的再流行,都会出现:推进人工智能的梦想之说。前言:Marr视觉分层理论 Marr视觉分层理论(百度百科):理论框架主要由视觉所建立、保持、并予以解释的三级表象结构组成,这就是: a.基元图(the primal sketch)—由于图像的密度变化可能与物体边界这类具体的物理性质相对应,因此它主要描述图像的密度变化及其局部几何关系。 ...原创 2013-12-21 18:41:25 · 1161 阅读 · 0 评论 -
人工机器:Neural Turing Machines(NTM)
NTM通过融合一个注意力处理过程进行交互的外部存储器(external memory),来增强神经网络的能力。新系统等同于图灵机或者冯·诺依曼体系,但每个组成部分都是端到端可微的,因此可以使用梯度下降进行高效训练。初步的结果显示神经网络图灵机能够从输入和输出样本中推理出(infer)简单的算法,如复制、排序和回忆。翻译 2016-11-11 18:42:13 · 12751 阅读 · 3 评论 -
DeepMind:所谓SACX学习范式
机器人是否能应用于服务最终还是那两条腿值多少钱,而与人交互,能真正地做“服务”工作,还是看那两条胳膊怎么工作。大脑的智能化还是非常遥远的,还是先把感受器和效应器做好才是王道。 关于强化学习,根据Agent对策略的主动性不同划分为主动强化学习(学习策略:必须自己决定采取什么行动)和被动强化学习(固定的策略决定其行为,为评价学习,即Agent如何从成功与失败中...原创 2018-03-26 11:01:30 · 625 阅读 · 0 评论 -
AI:IPPR的数学表示-CNN方法
既然人工构建的特征hash函数并不能满足每一个场景的需求,每个经验都有局限,且特征提取的压缩映射必然导致压缩损失,为何不略过此环节,使用数据来完成此过程。越多的数据可生成越精确的分类结果,这就引出了一站式图像处理PR方法——CNN方法。IPPR又从分治法回到一站式方法。原创 2017-07-08 00:15:09 · 1334 阅读 · 0 评论 -
AI:IPPR的数学表示-CNN结构/参数分析
前言:CNN迎接多类的挑战 特定类型的传统PR方法特征提取的方法是固定的,模式函数的形式是固定的,在理论上产生了特定的“局限性” 的,分类准确度可以使用PAC学习理论的方法计算出来。特定函数形式的模式识别准确度、泛化误差都受到模型本身VC维的限制。 使用不受限制的多层网络取代可以有明确语法形式的传统网络,可以突破特征提取和模式函数的固有限制,也导致了模式识...原创 2017-07-12 12:15:02 · 1627 阅读 · 0 评论 -
人工机器:基于视觉的机械手控制
《机器人学、机器视觉与控制》一书中,第五部分开始,第15章之前——基于视觉的控制,第442页这样写到。 第二个问题:确保机器人能达到一个期望的位姿,也不是一个简单的事情。正如我们在第七章讨论的那样,机器人末端执行器要通过计算要求的关节角度才能向一个位姿运动。这就要求机器人的运动模型是准确的,它反过来就要要求机器人的加工精度必须非常高:连杆长度必须准确,关节轴之间...翻译 2018-05-10 10:57:03 · 5053 阅读 · 0 评论 -
博客需要搬家
太他nia的垃圾了,写完之后点击发布,只保留了前一段,后面的长篇大论全都没了,感情是自动保存草稿的那一段,其他的呢。其他的呢?本地的没有上传上去,这个缓存机制有很大问题,太恶心人了!转移到其他地方吧................原创 2019-06-14 16:52:22 · 876 阅读 · 1 评论 -
个人技术博客的选择:CSDN、博客园、简书、知乎专栏还是Github Page?
文章链接:个人技术博客的选择:CSDN、博客园、简书、知乎专栏还是Github Page? 感觉还是Fuck The Dog!看来还是以后把文章写在本地,然后再上传到CSDN吧。被CSDN的缓存机制坑了几次,得非常注意这次事件才行!!!...转载 2018-06-19 17:21:50 · 4755 阅读 · 0 评论 -
VC维与DNN的Boundary
原文链接:解读机器学习基础概念:VC维来去 作者:vincentyao目录:说说历史 Hoeffding不等式 Connection to Learning 学习可行的两个核心条件 Effective Number of Hypotheses Growth Function Break Point与Shatter VC Bound VC dimens...翻译 2015-04-23 23:19:34 · 3154 阅读 · 0 评论 -
人工机器:作为归纳系统的深度学习
深度学习为深度神经网络机器学习。07年最先引起注目的是DNN,在语音识别上有突出的表现;深度CNN在机器视觉领域的超常表现引领模式识别领域科学界和工业界的潮流,基于图像数据本身的二维结构天然适合CNN处理;RNN对时序和变长数据的处理优势促使语音识别和视频分析又有较大发展;此外可应用于增强学习的新的深度网络形式可以完成游戏策略训练过程,提供端到端的 模型训练方式:DeepMind用...原创 2017-05-05 15:53:15 · 1053 阅读 · 0 评论 -
基于神经网络的混合计算(DNC)-Hybrid computing using a NN with dynamic external memory
常规计算机算法能够处理复杂的大型数据结构,比如英特网和社交网络,但必须经过人类“手动”编程。神经网络则能通过示例学习如何识别复杂模式,但很难解析或组织复杂的数据结构。Alex Graves、Greg Wayne及同事,开发了一种名叫可微分神经计算机(DNC)的混合型学习机器,它由能从外部存储结构(类似常规计算机的随机存取存储器)读写数据的神经网络组成。因此,DNC能在没有先验知识和专门编程的条件下,仅仅通过试错方法来学习规划伦敦地铁路线,还能完成方块拼图游戏。翻译 2016-11-12 13:50:26 · 3222 阅读 · 0 评论 -
DeepMind用ReinforcementLearning玩游戏
本文从图像级别进行游戏,跨过特征-规则-策略的显示分层,有一定的趣味性。说到机器学习最酷的分支,非Deep learning和Reinforcement learning莫属(以下分别简称DL和RL)。这两者不仅在实际应用中表现的很酷,在机器学习理论中也有不俗的表现。DeepMind 工作人员合两者之精髓,在Stella模拟机上让机器自己玩了7个Atari 2600的游戏,结果是玩的冲出美洲,走向世界,超越了物种的局限。不仅战胜了其他机器人,甚至在其中3个游戏中超越了人类游戏专家。转载 2015-01-05 17:05:37 · 1833 阅读 · 2 评论 -
人工机器:NDC-谷歌机器翻译破世界纪录,仅用Attention模型,无需CNN和RNN
NTM的成熟体DNC竟然达到了这种能力,不知道进化成完全体会是什么样子。竟然在机器翻译的准确率上超过了已经公布的所有模型,不愧是最接近现阶段最接近图灵机的有限图灵机。在数码宝贝中,我最喜欢的是阿和的加布兽进化的究极体数码宝贝——钢铁加鲁鲁,其使用的武器绝对冷冻气——就洋溢着极其欠揍的高冷味道。转载 2017-06-14 20:07:15 · 3428 阅读 · 1 评论 -
AI:PR的数学表示-传统方法PR
在图像处理PR领域,相对于ANN方法,其他的方法一般称为传统方法。在结构上,几乎所有的PR方法都是可解释的。而在规则和语义上,ANN方法一般是无法解释的,称之为PR的语义黑箱。对于图像处理IP来说,一般形式下的模式函数都是(降维)压缩hash函数。原创 2017-07-07 23:34:04 · 2933 阅读 · 0 评论 -
AI:IPPR的数学表示-CNN基本结构分析( Conv层、Pooling层、FCN层/softmax层)
类似于SVM,CNN为代表的DNN方法的边缘参数随着多类和高精度的要求必然增长。比如向量机方法,使用可以映射到无穷维的高斯核,即使进行两类分类,在大数据集上得到高精度,即保持准确率和高精度的双指标,支持向量的个数会随着数据集增长,SVM三层网会变得非常宽。CNN方法的多层结构,在保留边缘映射的数目的同时可以有效地降低“支持向量”的个数,是通过函数复合—因式分解得到的,至于要使用多少...原创 2019-06-17 14:39:36 · 3357 阅读 · 0 评论 -
ANN:DNN结构演进History—LSTM网络
为了保持文章系列的连贯性,参考这个文章: 此前的文章: DNN结构演进History—LSTM_NN ,这个文章的分析更加全面清晰:Understanding LSTM NetWork 分析了各种LSTM网络,LSTM小品文 :谷歌语音转录背后的神经网络。摘要: LSTM使用一个控制门控制参数是否进行梯度计算,以此避免梯度消失或者爆炸。...原创 2015-08-24 13:19:18 · 868 阅读 · 0 评论 -
AI:模式识别的数学表示(集合—函数观点)
模式函数是一个从问题定义域到模式值域的一个单射。 从简单的贝叶斯方法,到只能支持二分类的原始支持向量机,到十几个类的分类上最好用的随机森林方法,到可以支持ImageNet上海量1860个类且分类精度极高的InceptionV4,其模式函数为 f( x ) = { X——>Y }|{ X = ImageNet的图片,Y={ 1860个类的标记 } } 是一个单射函数。原创 2017-07-07 18:24:10 · 2623 阅读 · 0 评论 -
ANN:神经网络堆叠/进化故事( 从感知机到DRBN )
几乎每一次神经网络的再流行,都会出现:推进人工智能的梦想之说。不过感觉,神经网络的成功是对人的已有经验的覆盖。自然状态是一个DFA,而总结规律的过程则是根据经验的正确性把几何状态转化为抽象代数运算,这就是规则ANN以我们难以理解的网络参数来表示规则,是个不明所以的黑箱。DNN的流行因以其强大的表征能力可拟合形状诡异的流形分布,可以.......................转载 2015-04-16 10:36:59 · 7447 阅读 · 0 评论 -
EnforceLearning-主动强化学习
前言: 被动学习Agent由固定的策略决定其行为。主动学习Agent必须自己决定采取什么行动。 具体方法是: Agent将要学习一个包含所有行动结果概率的完整模型,而不仅仅是固定策略的模型; 接下来,Agent自身要对行动做出选择( 它需要学习的函数是由最优策略所决定的,这些效用遵循 Berman方程 );...原创 2016-06-04 14:11:49 · 3926 阅读 · 0 评论 -
ANN:DNN结构演进History—LSTM_NN
语音识别和动作识别(Action、Activities) 等一些时序问题,通过微分方式可以视为模式识别方法中的变长模式识别问题。语音识别的基元为音素、音节,字母和句子模式是在时间轴上的变长序列;Action的基元为Pose,action的识别为pose的时间序列模式。 我们跟随时间的脚步,试图解释现在、理解过去、甚至预测未来........ 在概率分析的层面,RNN通转载 2015-01-05 17:00:25 · 5361 阅读 · 3 评论 -
人工机器:TM、VNM和NTM的内存机制
从图灵机的原始模型分析,神经图灵机包含两个基本组成部分:神经网络控制器和记忆库,控制器通过输入输出向量和外界交互。不同于标准神经网络的是,控制器还会使用选择性的读写操作和记忆矩阵进行交互。类比于图灵机,我们将网络的参数化这些操作的输出称为“读头”。输入向量和网络结构影响注意力的聚焦,决定寻址位置。翻译 2017-02-04 15:55:50 · 1172 阅读 · 0 评论 -
CNN结构:用于检测的CNN结构进化-分离式方法
基于CNN的目标检测框架主要有两种:一种是 one-stage ,例如 YOLO、SSD 等,这一类方法速度很快,但识别精度没有 two-stage 的高,其中一个很重要的原因是,利用一个分类器很难既把负样本抑制掉,又把目标分类好。 另外一种目标检测框架是 two-stage ,以 Faster RCNN 为代表,这一类方法识别准确度和定位精度都很高,但存在着计算效率低,资源占用大的问题。转载 2017-08-15 10:27:38 · 2042 阅读 · 0 评论 -
人工机器:机器学习的哲学原理、基础及完备性的来由
观测->假设->归纳->演绎->过拟合,这是ML的一般套路和基础指导准则。 2018年03月11日 14:37:44导言 对于人工智能,有诸多定义,也有诸多质疑。各家的定义不用多追究。从各个领域提出对机器学习的理解,同时也表示出对定义的狭隘理解。从《计算机科学的离散结构》、到《pattern recognition》、...原创 2019-06-17 14:40:27 · 1577 阅读 · 0 评论 -
DNN:LSTM的前向计算和参数训练
原文-LSTM的反向传播:深度学习(6)-长短期网路;此处仅摘抄一小段,建议拜访全文。LSTM的参数训练:https://www.jianshu.com/p/dcec3f07d3b5;LSTM的参数训练和前向计算比RNNs还是稍微复杂一些。长短时记忆网络的前向计算前面描述的开关是怎样在算法中实现的呢?这就用到了门(gate)的概念。门实际上就是一层全连接层,它的输入是一个向量,输出是一...转载 2018-11-29 17:26:55 · 5461 阅读 · 0 评论