自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(45)
  • 收藏
  • 关注

原创 关于深度学习人工智能模型的探讨(八)(3)

8.3 注意力卷积核在挤压穿插的车水马龙中、在故意碰瓷的行驶环境下,开车的朋友都会在车前装一个行车记录仪。 一个小小的行车记录仪,时时记录数小时的视频并不容易。因为视频信号的信息量非常巨大,完整视频流意味着海量的存储。如何压缩存储是视频记录的关键,这一技术的突破在于“差别保存”。 原理大至为,先把连续的视频图像分成离散的帧,比如一秒钟24帧图片(电影胶卷就是这样)。然后对帧进行分类,分别为In...

2019-01-29 16:16:31 283

原创 关于深度学习人工智能模型的探讨(八)(2)

8.2 卷积神经网络卷积神经网络(CNN)是深度学习模型的典型代表,在AI图像识别领域广泛应用。CNN较一般神经网络在图像处理方面有如下优点:a)特征要素提取相对容易;b)逐层特征属性构建相对简单;c)各层次特征复合匹配效果相对较好。以图片识别的卷积神经网络为例:C1层是一个卷积层,由6个Feature Map特征图构成。C1层特征图中每个神经元与输入中55的邻域相连。C1层特征图...

2019-01-27 16:52:23 339

原创 关于深度学习人工智能模型的探讨(八)(1)

第八章 深度学习模型8.1 深度学习AI2012年6月,《纽约时报》披露了Google X实验室的“谷歌大脑”项目,研究人员随机提取了1000万个静态图像,将其输入谷歌大脑——由1.6万台电脑的处理器构成的多达10亿个连接的网络系统。这台人工神经网络,像一个蹒跚学步的孩子一样吸收信息,自主使用数据和计算资源,尽管在输入中没有包含任何像猫的名字、猫的标题、猫的类别等解释性信息,但这个机器通过3天...

2019-01-26 19:31:18 1610 2

原创 关于深度学习人工智能模型的探讨(小结)

一、不完备性定理简述1931年哥德尔发表论文《论数学原理和有关系统的形式不可判定命题》,即著名的哥德尔不完备性定理,其核心脉络大致可以分为这样三个步骤:(步骤一:数字化同构)不完备性定理证明方法,关键是把自然语言数字化,即把自然语言映射为数字。因为自然语言可以转换为形式逻辑、形式逻辑可以演算成命题范式、而命题范式可以展开成为标准的逻辑门、并且逻辑门可视作一种二进制代码。然后二进制数再转换成...

2019-01-26 19:11:57 1341 1

原创 关于深度学习人工智能模型的探讨(七)(6)

7.6 波粒二象性中国民间有一本易学神书《推背图》,推算了唐朝以后中国2000多年的未来,神书最后推演出皆大欢喜的世人憧憬的美好未来---天下大同。实际上,同样的观点,各地各民族文化基本上都是大同小异的,人类文明最终都将归于大一统。欧几里得的《几何原本》的思想根基是一统江山、牛顿的《自然哲学的数学原理》的思想根基是一统江山、希尔伯特之梦的思想根基是一统江山…爱因斯坦在创建相对论时就意识到,...

2019-01-26 17:56:44 285 1

原创 关于深度学习人工智能模型的探讨(七)(5)

7.5 张开的量上一节,我们提到一个问题:“单个电子通过夫琅禾费点孔的衍射图”如果单个电子通过夫琅禾费“点孔” ,在接收屏上,有可能看到的图应该是一个点?或者,可能一个sinc的衍射图样?又或者,可能是一个均匀分布的光板?经验告诉我们单个电子通过夫琅禾费“点孔” ,应该只可能有三这种情况,下面我们逐个摆一摆这三种情况看哪个是对的:1、接受屏上出现一个均匀分布的光板:这个想法基于...

2019-01-26 17:47:54 239

原创 关于深度学习人工智能模型的探讨(七)(4)

7.4 频域到空域有多远?张量空间的高阶逻辑,其异常复杂的程度是超乎想象的。首先,其中涉及空间元素间阿列夫2量级的多重线性关系;其次,隐含不同维度不同性质的子集合和子集合之间的复杂逻辑;更甚的是,还会遇到元素点概念与集合概念混为一体的诡异。下面我们以一个有关量子衍射现象的形象例子,来讨论元素点概念与集合概念混为一体的神秘:上面两种著名衍射中,比较有意思的是夫琅禾费衍射。夫琅禾费衍射是一束...

2019-01-26 17:39:16 309

原创 关于深度学习人工智能模型的探讨(七)(3)

7.3 阿列夫2维度的偏线性相关性智慧有个要点,在于识别系统特征属性的结构和联系,从而判断事物间内在相关性。而所谓相关的“关系”,大概国人都耳熟能详。拉关系、搞帮派、扩人脉、充势力,人际关系网在我们生存之地是如此重要。有人甚至说,在我泱泱华夏,一个人人际关系网有多大,他的成功就会有多大。其实科学界对“关系”亦为重视,尤其是如何量化关系。量化事物间的相互关联度,有很多种方法,其中最直接最...

2019-01-26 15:43:49 193

原创 关于深度学习人工智能模型的探讨(七)(2)

7.2 多重线性未来的某一天机器人会不会替代人类成为文明的主人? 由于人类知识水平的局限,我们即无法证明其真、亦无法证明其为假。 这也许是一个对人类认知水平而言无法判定真伪的不可判定命题。关于计算机代替人类的话题,也许目前还只是骇人听闻的哗众取宠的龙门阵。但是,我们可以确信断定的是,“智能爆炸”的时代正在到来,人机共生系统在可见的未来将会得到极大发展。人类的生活将会越来越依赖机器,甚至如果离开...

2019-01-25 16:28:40 197

原创 关于深度学习人工智能模型的探讨(七)(1)

第七章 张量7.1 张量简介深度学习模型的逻辑结构是高阶张量。张量究竟是何方圣神?以张量来度量特征空间到底有什么优势呢?“张量”既不是张良的哥哥,也是不张飞的弟弟,张量不姓张,不是一个人名。张量是一种量,一种张开的量。比如,肉眼看一个细胞,是一个粒子,一个数据。如果通过放大镜、显微镜,我们会发现细胞是一个包含细胞核、核糖体、细胞质、内质网、高尔基体、囊泡、溶酶体、线粒体、细胞骨架、细胞...

2019-01-25 14:41:20 204 1

原创 关于深度学习人工智能模型的探讨(附)

1999年,有个叫做 Raymond Kurzweil的预言,根据著名的摩尔定律,人工智能的智力水平终有一天会超过人类,他将那个时刻称之为“奇点”(Singularity),之后机器将代替人类主宰世界。一台冰冷的机器,超越人类的智慧??骇人听闻,如果这是真的,可能有一天,科幻电影将成真------机器人将替代人类成为世界的主人。这可能么?数不清的一串串大问号也许,这是一个值得花时间探讨的话...

2019-01-24 21:40:17 1332

原创 关于深度学习人工智能模型的探讨(六)(5)

6.5 是与非中国历史上有个著名的昏君,叫做嘉靖皇帝。中国昏庸的皇帝不少,但是如嘉靖般荒谬的却不多。“嘉靖嘉靖,家家皆净”,嘉靖的臭名昭著是到极致的。他残杀上千宫女做药引、眼睁睁看着老婆烧死不救、到死也不与两个儿子相见、27年不上朝、靠占卦过日子、天天食毒妄图长生不老、豢养贪官严嵩等等,等等。究其根本,嘉靖之所以闹天下奇闻大笑话,因为他有很严重的精神分裂;而他之所以精神分裂,源于他初登皇位的一...

2019-01-24 21:35:03 237

原创 关于深度学习人工智能模型的探讨(六)(4)

6.4 可容误差ε要避免无穷小和0的谬误,唯一的办法,除非我们改造0 ,重新定义‘零’的内涵比如,定义:{零0}= {1/阿列夫0}{零1}= {1/阿列夫1}{零2}= {1/阿列夫2}即,把0看作精度不同的集合{零0}、{零1}、{零2}…把‘零’看作某一群无穷小量的‘集合’,而不单单看作一个绝对点值‘元素’,需要很大的勇气,将面临更加严酷的挑战。因为0是一切逻辑的基础,0必需是...

2019-01-24 21:27:21 163

原创 关于深度学习人工智能模型的探讨(六)(3)

6.3 零的秘密熟知数学理论的同学一眼就可以看出,前面两节的事例都是关于无穷小量的。我们发现,6.2节的无穷小量累加在一起会产生不可容忍的误差,出现谬误。而6.1节的无穷小量累加在一起则是收敛的,6.1节的无穷小量(即使是无限多个)累加也相当于零,不对结果产生影响。显然,不同的无穷小量可能有不同的性质,需要区别对待。特别的,在阿列夫2维度空间中的无穷小量,与阿列夫1维度空间有多大差别呢?...

2019-01-24 21:16:07 309

原创 关于深度学习人工智能模型的探讨(六)(2)

6.2 差之毫厘失之千里收敛性是我们研究系统问题的关键,但遗憾是收敛性却并不普遍,很多乍看收敛的现象往往并不收敛。有一个奇怪的图画,图形有7个人:如果我们把图形分成3块,把第1块和第2块互调一下,得到一个新的图形再数一下新图形中的人数,惊奇地发现,居然变成了8个人,比变换图形前多了一个人?为什么呢?貌似我们只是把其中子图形调换了个位置,并没有用笔添加什么,怎么会无端多出来一个人呢?...

2019-01-24 21:10:55 171

原创 关于深度学习人工智能模型的探讨(六)(1)

第六章 收敛与06.1 收敛性1967年在国际权威的美国《科学》杂志上发表了一篇划进代的的论文《英国的海岸线有多长?统计自相似性与分数维数》,文章作者Beonit Mandelbrot是一位当代美籍法国数学家和计算机专家,他的答案让所有人大吃一惊:英国的海岸线是不确定的。英国的海岸线长度是不确定的?伟大的大不列颠联合王国国民可能要骂娘了,你狗日的法国佬安的什么心?!#¥#……#!%¥&%...

2019-01-24 20:55:56 221

原创 关于深度学习人工智能模型的探讨(五)(7)

5.7 盖世英雄ℵ 2(阿列夫2)相信很多朋友见到这两个傅立叶变换的式子都不陌生,但是却很难亲切,因为这两个式子很容易让人迷糊晕菜。每一个位移值都由无穷多个复动量构成、而每一个复动量值又由无穷多个复位移构成。就像在两个对照的镜子里,你中有我、我中有你,层层嵌套、无穷无尽。第一直觉,“非独立二元复指数”,貌似多重旋量(虚数i)的高阶张量。心里不停的嘀咕,莫非这是多重旋量层层嵌套的∞ ^∞ ,即无...

2019-01-24 20:44:32 436

原创 关于深度学习人工智能模型的探讨(五)(6)

5.6 大众情人随便翻开一本人工智能教科书,核心内容都会介绍如何识别特征、提取特征、分析特征。那么请问,应用最广泛的特征基长什么样子呢? 这就是exp(ipr) 特征基上一节的例子可以看出平面波exp(ipr)是自然科学的大众情人,让我们来看看大众情人到底有多么的“大众化”。 下面是关于exp(ipr)广泛性的一个著名定理。【定律】exp(ipr)是所有线性时不变系统的共同本征...

2019-01-23 23:02:21 210

原创 关于深度学习人工智能模型的探讨(五)(5)

5.5 波涛汹涌前面曾经提到过,高斯函数的奇特之处在于它们有一个共同本证函数系exp(ikx)实际上作为高斯函数共同本证函数系的exp(ikx),并不是高斯函数特例独有的性质。exp(ikx),常常也记作exp(ipr)、exp(ipx)、exp(ipq)、exp(iEt)、exp(ist)等等。即自然数e的ipr次方,其中i是复数符号、p和r是二元变量。exp(ipr)既表示平面波、又...

2019-01-23 21:31:21 646

原创 关于深度学习人工智能模型的探讨(五)(4)

5.4 高斯函数同样一条数学结论可以在多个截然不相干的学科分支中都产生历史性的影响,这大概是相当罕见的例子了。但是众所周知,不确定性原理本身并不是以抽象见长的数学家的发明,而是来自于量子物理学家的经验事实。海森堡在 1927 年的发表文章《量子理论运动学和力学的直观内容》,提出了后来被人们所熟悉的关于为什么无法同时测量一个电子的位置和动量的解释,他把他的结论笼统地表达为 Δx Δp ≥ h,其...

2019-01-23 21:12:18 345

原创 关于深度学习人工智能模型的探讨(五)(3)

5.3 确定的不确定度正因为信号在时空域和频域中不可能同时集中在‘有限大’的区域内,一边区域‘有限’另一边区域必然‘无限’,所以才有不确定性现象。如果它仅仅用来说明某些事情测不准做不到,就像‘不确定’三个字的字面意思所反映出的那样,以不确定来说不确定,以笼统来说模糊,当然激发不起科学界的兴趣,更不可能有如日中天的矩阵力学的巨大成功。万幸的是,不确定性原理的不确定,是确定的不确定性,其‘不确定度...

2019-01-23 21:03:20 190

原创 关于深度学习人工智能模型的探讨(五)(2)

5.2 最深刻的宇宙秘密在傅立叶变换所有秘密中,最意味深长、最不寻常的是关于无限和有限的。傅立叶变换能够把某些初看起来非常杂乱无章的甚至无穷无尽的东东,变换为异常简单的有限的东东。反之,对异常简单的东东通过傅立叶变换必然变成无限的广阔。那么,有没有一种信号在空域和频域上的分布都很广泛呢?有的,比如噪声信号。一段噪音,其傅立叶变换也仍然是噪音,所以它在空域和频域上的分布都是广泛的。可以这...

2019-01-23 20:57:41 119

原创 关于深度学习人工智能模型的探讨(五)(1)

第五章 无所不在的exp(ipr)5.1 傅里叶变换要进一步说明“不确定性原理”的实质(参照系维度不完备),需要重新回顾不确定性原理的渊源。而欲弄清楚量子力学不确定性原理的根源,不得不从充满神奇魔力的傅里叶变换讲起。1807年,法国数学家傅立叶向巴黎科学院递交了一篇论文《固体中的热传播》,在这篇研究热传导问题论文里的有一个当初并不起眼的副产品:任何一个信号(或者说一个函数)都可以表达为一系列...

2019-01-22 21:15:28 176

原创 关于深度学习人工智能模型的探讨(四)(7)

4.7 不确定性和不完备性‘波爱之争’的焦点是关于不确定性和不完备性的问题。乍一看,“不完备性定理” 和 “不确定性原理” 完全是风马牛不相及两回事。一个是关于形式逻辑方面的问题,一个是关于量子状态的问题,二者相差十万八千里,风马牛不相及,根本扯不上关系。其实不然前面说了,“不完备性定理” 的本质是线性空间维度不完备问题,莫非“不确定性原理”根源也于此有关么?是的!真这么简单?那么为...

2019-01-22 21:07:47 193

原创 关于深度学习人工智能模型的探讨(四)(6)

4.6 爱玻之争科学史上曾发生过多次争论:例如关于光的波动说和微粒说的争论;关于热质说和热动说的争论;关于阴极射线的本质的争论。其中最突出的是爱因斯坦和玻尔关于矩阵量子力学完备性的争论,这场独树一帜的争论有三大特点:第一,爱玻之争旷日持久,从 1926 年到 1955 年爱因斯坦去世为止整整 30 年,自始至终双方耿耿于怀。第二,这场争论以“理想实验”定胜负,这在科学史上是绝无仅有的。以往的...

2019-01-22 21:00:19 185

原创 关于深度学习人工智能模型的探讨(四)(5)

4.5 泡利矩阵上一节提出来,维度不完备是不确定性现象产生的根源,是这样吗?下面,来看一个具体直观的例子。进入量子空间需要一张特别入场卷,就像小学生必须背乘法口诀、下围棋必须牢记定式一样,欣赏这个大殿的美景必须对包利矩阵滚瓜烂熟。泡利矩阵是个很有意思的话题,如果深入探讨,会发现量子力学里的空间维度完备性的特殊意义。首先看,σx和σy相乘,表面上应该表达x和y轴组成的一个二维平面,似乎是...

2019-01-22 20:54:20 360

原创 关于深度学习人工智能模型的探讨(四)(4)

4.4 矩阵的折叠上一节,我们大概了解了“不确定性”和“不完备性”的内在脉络。继续深入探讨这个伟大发现之前,先回过头看看薛定谔方程为什么是确定性的。奇了怪了,既然薛定谔方程和哥本哈根学派矩阵都是表达同样的理论,为什么薛定谔可以自我标榜确定性,哥本哈根学派理论却不确定呢???为了进一步说明这个问题,需要说说薛定谔方程的量子论和哥本哈根学派矩阵的量子论的异同。这要从二者的表达方式说起:大致而...

2019-01-22 20:49:40 166

原创 关于深度学习人工智能模型的探讨(四)(3)

4.3 百分百中大奖经常在媒体上看到某某买彩票中大奖,一夜暴富。羡慕之余,偶尔也会忍不住买一张彩票,揣把希望。 不过跟几乎所有彩民一样,俺从没见过大奖啥样。一天,一伙熟人吃饭东拉西扯侃大山,有朋友说他有一个办法可以保证百分百中大奖,问大伙想不想听听?什么,百分百中大奖???还有这样的办法无稽之谈吧凑过头一听,得,居然是真的。方法就是把本期所有彩票全部买下,保证百分之百中大奖。(哈哈哈...

2019-01-22 19:45:43 169

原创 关于深度学习人工智能模型的探讨(四)(2)

4.2 又死又活的猫当年薛定谔证明了矩阵力学和他的波动方程是一回事的时候,按道理量子力学两大宗派(哥本哈根学院派和波粒二象派)就应该握手言欢、皆大欢喜了。 但是,量子力学的神秘故事还远未结束。哥本哈根学派听说薛定谔方程推导出了一模一样的波尔氢原子结构,激动万分,兴奋中立即特邀薛定谔到哥本哈根大学,与之详细交流量子之精妙。然而在长达十天“哥本哈根论剑”的漫长切磋中,尽管双方都非常投入努力,滔滔不...

2019-01-20 18:19:58 153

原创 关于深度学习人工智能模型的探讨(四)(1)

第四章 不确定性原理4.1 百川归海自从1918年普朗克获得诺贝尔物理学大奖以来,诺贝尔殿堂劲歌争霸赛中,勇拔头筹的几乎都是量子力学的弟子。瑞典皇家科学院似乎也特别青睐量子力学的眩目魔术,每每亮出最高分。一个世纪以来,量子力学大有一统江湖的气势。傲视群雄、风光无限。但是,遗憾的是,量子力学门派从一开始就不团结,诸子百家、派系林立,气宗剑宗、军阀混战。总体而言,量子力学中最大的宗派有两个,...

2019-01-20 18:10:52 223

原创 关于深度学习人工智能模型的探讨(三)(5)

3.5 外空黑洞阿列夫兜了一大圈,下面我们再来捋一捋哥德尔“不完备性定理”关键点:首先,靠一条一条公理补充列举的方法,建立和添加出来的公理体系必然是可列的。再次提醒童鞋们,可列集的无穷大只能达到‘阿列夫0’另一方面,包容万象的命题体系却包含有‘诡论命题’,‘诡论命题’对应于无理数,而包含无理数的实数却有‘阿列夫1’之多,远远大于‘阿列夫0’所能阐述的范围。所以,当哥德尔找到一个【说谎者诡论...

2019-01-20 16:45:38 301

原创 关于深度学习人工智能模型的探讨(三)(4)

3.4 空间折叠上一节可以形象的看出,无理数都是多维空间图形,它们是多维空间通过“空间折叠”映射到一维直线上的。关于空间折叠的观念,在现实生活中,是一个普遍的现象,日常生活司空见惯。比如,为了便于携带,常常把三维空间的立体的凳子折叠成二维空间的一片木板的样子。对三维立体物体空间折叠的好处是显而易见的:1、折叠后节省空间;2、折叠后简洁规范不仅仅子桌子椅子需要折叠,我们日常表达一个事物...

2019-01-20 16:29:09 190

原创 关于深度学习人工智能模型的探讨(三)(3)

3.3 来自外空的无理数在实数理论中,常常把实数对应于直线上的点。但是,我们实践中发现,直线上的数据点只可能出现有理数。如果对某段直线任意精度的测量,无论测量那一段,都只可能是有限小数;如果把某段直线折断,“一尺之捶,日取其半,万世不竭”,这是一个无限循环小数,也是有理数。直观经验判断直线上的数应该全部都是有理数,在直线上无论如何稠密的布满数据点,也不可能出现无理数啊。严格来看把实数...

2019-01-20 15:24:13 172

原创 关于深度学习人工智能模型的探讨(三)(2)

3.2 积分∫和 西格玛∑虽然让人困惑,但是关于无穷大的问题是无法避免的。曾经那些放弃无穷大概念的呼声,早已被抛到九霄云外,而且永远不可能翻身。因为如今很时髦的傅里叶变换理论已经证明,任何有限定义域的函数,其傅里叶变换后一定是无限的。物理上的波粒二象性就是这个理论的一个例子。也就是说,任何(请注意是任何)有限的东东一定伴随着一个无限的影子。咦,真的吗?(后面会引用这个证明,其实就一句话,嘻嘻...

2019-01-20 14:47:39 512

原创 关于深度学习人工智能模型的探讨(三)(1)

第三章 神奇的阿列夫3.1 无穷大的秘密曾经,一个叫康托尔的神经病,到处兜售他的谬论,他胡说八道说什么无穷大是分阶的,存在很多种类的无穷大,有无穷大1、无穷大2、无穷大3 …,多无止境康托尔还为这些不同的无穷大起了名字,分别叫阿列夫0、阿列夫1、阿列夫2 …而且疯子康托尔说这些个无穷大之间还能够比较大小。比如,‘阿列夫0’比‘阿列夫1’小,而且小很多很多很多但是,但是,正常的地球人都...

2019-01-20 12:48:41 479

原创 关于深度学习人工智能模型的探讨(二)(7)

2.7 它们的队伍浩如繁星小李飞刀,寒光一闪, 飞箭出鞘, 一剑封喉, 鲜血飞泉,例无虚发。遗憾、遗憾,绝世神器,却看不清如何出手。同样,上节诡论和无理数的类比论述似乎过于专业,相信数论背景知识欠缺的网友仍一头雾水、难解疑惑。 难免,肯定很多网友仍然忍不住一肚子好奇:一个小小诡论一招制敌、一锤定音、一剑封喉,轻松粉碎无比牛逼的形式逻辑(人类数千年智慧结晶而来的语义逻辑),是真的吗? 仅此一个...

2019-01-19 21:19:24 193

原创 关于深度学习人工智能模型的探讨(二)(6)

2.6 超越数据说福特公司早年有一套重要设备突然出现故障,找了很多人来维修,结果都没有维修好。没办法,只好高价请来一位老师傅过来试试。老师傅围着机床转悠了半天,最后在机器左下角画了个小圈,告诉工厂的小技工打开这里,把此处的螺丝换一个。新螺丝拧紧,开机,果然恢复如初。福特老板问老师傅维修费用多少钱,他说要一万美金(当年一万美金很值钱)。大家都唏嘘不已,感觉被敲竹杠了,不就是画了个小圈吗?况且换螺丝...

2019-01-19 20:16:33 198

原创 关于深度学习人工智能模型的探讨(二)(5)

2.5 逻辑递归 n+1曾经,有个名噪一时的理发师悖论,深深刺痛逻辑大师的灵魂。后来,这个悖论靠扩展公理到n+1维,顺利化解了。理发师悖论:【在某个城市中有一位理发师,他的广告词是这样写的:“本人的理发技艺十分高超,誉满全城。我将为本城所有不给自己理发的人理发,我也只给这些人理发。我对各位表示热诚欢迎!”来找他理发的人络绎不绝,自然都是那些不给自己理发的人。可是,有一天,这位理发师从镜子里看...

2019-01-19 18:19:52 183

原创 关于深度学习人工智能模型的探讨(二)(4)

2.4 扩展到n+1维线性空间和不完备性定理,都跟公理体系密切相关。形象说,公理体系是线性空间的儿子(子集),不完备性定理是公理体系的老婆(如影相随)。线性空间还有个重要的概念———维度(又称系统的秩),指系统所需‘特征基’的个数。我们都知道,描述一个事物,有很多种方法。观察的角度不同,选取的基本零件不同,参照系坐标轴就不同,则描述的方法也会不同。一个系统‘特征基’有不同的选择,但其‘维度...

2019-01-19 18:12:54 171

原创 关于深度学习人工智能模型的探讨(二)(3)

2.3 线性空间高手对决,不比武艺、拼内功。前面提过牛顿修仙之路的小故事。一开始,牛同学偶遇武功秘籍《几何原本》,不料有眼无珠擦肩而过。后来,少侠在武林大会惨遭淘汰。幸逢前辈点拨:“练武不练功、到老一场空。”顿悟,从此死磕公理,苦修神功,内力大增,终打通任督二脉,成一代牛人宗师。要深入解释上面哥德尔的诡论命题的巨大冲击力,也不得不先谈谈一个关于科学理论内功的武功秘籍---“线性空间”(数学上...

2019-01-19 18:00:23 220

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除