人工智能
文章平均质量分 89
办公模板库 素材蛙
命数如织 当为磐石
展开
-
人工智能基础课直播回顾-机器学习必备的数学基础
自从12月份开始更新到现在,我们这个专栏已经不知不觉走过了4个月的时间。在这4个月的时间当中,我和大家一块分享了最近火热的人工智能的技术,包括它的一些数学基础、机器学习的算法以及神经网络,还有深度学习这样一些热点的话题。俗话说得好,编筐编篓,全在收口。能在最后一次更新的时候和大家做一次这样的视频直播的分享,我觉得也是非常荣幸,能够有机会和大家进行一个更加深入的交流。我们今天分享的内容主要是。从这个主题当中,我也可以感受到,大家在学习人工智能的时候,一个务实的态度。原创 2023-04-23 09:00:06 · 130 阅读 · 0 评论 -
人工智能基础课40应用场景-数字巴别塔:机器翻译
根据圣经旧约《创世纪》中的记载,大洪水劫后,诺亚的子孙们在巴比伦附近的示拿地定居。这一时期的机器翻译有了全新的理论基础:语言学巨擘诺姆·乔姆斯基在其经典著作《句法结构》(Syntactic Structures)中对语言的内涵做了深入的阐述,他的核心观点是语言的基本元素并非字词,而是句子,一种语言中无限的句子可以由有限的规则推导出来。同一个词可能存在多种意义,在不同的语言环境下也具有不同的表达效果,逐字对应的翻译在意义单一的专业术语上能有较好的表现,但在日常生活的复杂语言中就会演化为一场灾难。原创 2023-04-23 08:59:13 · 119 阅读 · 0 评论 -
人工智能基础课39应用场景-心有灵犀一点通:对话系统
在机器人已有初始固定数据集训练基础的前提下,与人类实时或半实时的互动学习能够有效提升机器人的表现,这样的学习过程甚至可以无限地持续下去,这是不是意味着学无止境的道理对人工智能同样适用呢?Siri的系统运行环境被称为“活跃本体”。在这个过程中,反馈的形式包括两种:一种是在常规的深度学习中使用的明确的数字类型回复,另一种是在人类对话中更加常见的文本式反馈。在处理反馈的过程中,如何以最小的反馈量实现对机器人的高效训练,机器人如何利用不同类型的反馈信号,在实时学习中如何避免收敛性差与不稳定性等都是需要解决的问题。原创 2023-04-22 09:34:33 · 89 阅读 · 0 评论 -
人工智能基础课38应用场景-嘿,Siri:语音处理
经过训练,机器学习的算法就能完成从语言特征到声音特征的映射,生成的声音特征被用于指导单元选择过程,至关重要的指导因素就是合适的音调和音长。在后端,录制的语音流数据首先要根据语音识别声学模型进行分段,在这个过程中,输入的语音序列需要与从语音信号中提取出的声学特征进行对准。比如说如果文本是个疑问句,那么输出的语音就应该以升调结尾,文本中的感情色彩也会影响语音特征的选择。但这些语料不可能覆盖所有的表达,因而需要将其划分为音素和半音素等更微小的基本单元,再根据由输入语音转换成的文本将基本单元重组,合成全新的语音。原创 2023-04-22 09:33:41 · 320 阅读 · 0 评论 -
人工智能基础课37应用场景-你是我的眼:计算机视觉
密集网络的研究者提到,他们的想法借鉴了残差网络的思想,但密集网络的独特之处在于所有层都可以直接获取前面所有层中的特征,而残差网络中的层只能获取到和它相邻的那个层次。这样的计算机视觉其实是人类视觉的延伸,它的识别本质上讲还是由人类来完成的。对于给定的数字图像,计算机在处理时要先执行二次采样、平滑去噪、对比度提升和尺度调整等预处理操作,再对图像中的线条、边缘等全局特征和边角、斑点等局部特征,乃至更加复杂的运动和纹理特征进行检测,检测到的特征会被进一步用来对目标进行分类,或者估测特定的参数。原创 2023-04-22 09:32:52 · 69 阅读 · 0 评论 -
人工智能基础课36深度学习之外的人工智能-滴水藏海:知识图谱
在算错的情况下等于3!但在由软性规则构造出的马尔可夫逻辑网中,1加1等于3也是合法的,但这个合法规则只存在于另外的一个平行世界之中,这个世界和真实世界的差别很大,其存在的可能性很小,因而与它相关的规则成立的概率也会很低。如果在我认识的程序员朋友中,小张很聪明,老李很聪明,大刘也很聪明,那我就有理由相信,所有的程序员都很聪明。在分布式的表示中,首先要定义出实体和关系在向量空间中的表示形式,其次要定义打分函数来衡量每个实体-关系组成立的可能性,最后通过构造优化问题来学习实体和关系的低维向量表示。原创 2023-04-22 09:31:46 · 86 阅读 · 0 评论 -
人工智能基础课35深度学习之外的人工智能-授人以鱼不如授人以渔:迁移学习
基于特征映射的迁移学习是把每个领域的数据从原始高维特征空间映射到新的低维特征空间,使源域数据和目标域数据在新的低维空间上具有相同的分布,这样就可以利用低维空间表示的有标签的源域数据来训练目标域上的分类器。与其他三种方法不同,关系学习方法处理的是关系域中的迁移学习问题,其中的数据在概率上不需要满足独立同分布的条件,但是一定要能够用类似的关系来表示,最典型的实例就是物理网络的数据和社交网络的数据。元学习的目标是通过对元数据的自动化学习来提升学习算法的灵活性,是对学习方法的学习。那么你如何看待迁移学习的前景呢?原创 2023-04-22 09:29:34 · 93 阅读 · 0 评论 -
人工智能基础课34深度学习之外的人工智能-乌合之众的逆袭:集群智能
在由大量数目的生物个体构成的群体中,不同个体之间的局部行为并非互不相关,而是互相作用和影响,进而作为整体化的协调有序的行为产生对外界环境的响应。集群智能系统中的作用方式通常是个体间的间接通信,因而互动的个体数量往往不会随着群体中个体的总数量的增加而增长,每个个体的行为只受群体维度的松散影响。在行进的过程中,蚂蚁会在自己的路径上释放信息素,信息素的强度是与解的最优程度成正比的,新的蚂蚁则会根据已有信息素的强度选择自己的行进路径。功能模拟是个自顶向下的过程:先确定要完成的任务,再来设计任务实现的方式。原创 2023-04-22 09:29:04 · 126 阅读 · 0 评论 -
人工智能基础课33深度学习之外的人工智能-一图胜千言:概率图模型
它们提供了将概率模型的结构可视化的简单方式,而对图形的观察可以加深对模型性质的认识,其中最主要的性质就是变量之间的条件独立性。条件独立性是概率论视角下的概念,如果从图论的角度看,变量之间的依赖与独立对应的是顶点之间的连通与分隔。如果不同的变量之间存在因果关系,那么相应的顶点就会由带箭头的边连接起来,箭头的方向由表示原因的变量指向表示结果的变量,边的权重就是对应的条件概率值。可遗憾的是,真实世界是由随机性和误差主宰的,在这光怪陆离的环境中,纯粹的数理逻辑就如同古板的老夫子一般与周遭格格不入。原创 2023-04-22 09:26:06 · 75 阅读 · 0 评论 -
人工智能基础课32深度学习框架下的神经网络-三重门:长短期记忆网络
输入门的工作机制与遗忘门类似,但是更加复杂,它首先用对数几率函数对即时输入和上一时刻的输出的组合进行过滤,过滤的作用一方面在于确定哪些信息被保留,另一方面则在于确定这些信息以何种比例被添加到记忆单元之中。相比于原来使用的基于短语的系统,新系统的翻译误差平均降低了60%,这是非常明显的提升。当然,记忆单元的更新不一定意味着完全的替换,对新输入的部分信息和原始存储中的部分信息加以整合也是可以的。长期记忆的基础是足够的存储,但宝贵的存储不能被滥用,它不是收集桶,有用的没用的都一股脑儿往里面扔。原创 2023-04-22 09:25:08 · 199 阅读 · 0 评论 -
人工智能基础课31深度学习框架下的神经网络-左右互搏:生成式对抗网络
首先,传统的生成模型是定义了模型的分布,进而去求解参数。2016年10月,谷歌大脑的研究者们做了一个有趣的实验:使用三个并不复杂的神经网络执行保密通信的任务,两个合法通信方共享的只有保密的密钥,而没有商定的加解密算法,第三个神经网络则作为窃听者出现。生成式对抗网络的一个重要的潜在应用就是让人工智能在没有明确指导的情况下学习,使算法的学习方式向人类的学习方式转变。实验的结果同样令人惊讶:经过不断的试错与调整,接收方可以精确恢复出发送方的明文,而窃听者的错误率稳定在50%左右,意味着她的破译只是随机的猜测。原创 2023-04-22 09:24:30 · 131 阅读 · 0 评论 -
人工智能基础课29深度学习框架下的神经网络-见微知著:卷积神经网络
如果在图像的一个区域上,某些像素的组合构成一条直线,那么在图像的其他区域,具有相同灰度的像素组合仍然是直线,而不会变成一个圆。将前面介绍的卷积神经网络结构加以总结,就可以得到它的工作流程:输入层将待处理的图像转化为一个或者多个像素矩阵,卷积层利用一个或多个卷积核从像素矩阵中提取特征,得到的特征映射经过非线性函数处理后被送入池化层,由池化层执行降维操作。如果选取的核函数表示一个直角,原始图像中的直角就会体现为特征映射中一个较大的数值,根据这个数的坐标就可以确定曲线在输入图像中的位置。原创 2023-04-21 09:20:20 · 80 阅读 · 0 评论 -
人工智能基础课28深度学习框架下的神经网络-枯木逢春:深度信念网络
具体的做法是保持所有连接的权重系数不变,但是将方向反转,这样一来,每个隐藏单元的输出就会按照已经确定的系数反馈给可见层,可见层的每个神经元接收到的反馈信息是不同隐藏单元输出的线性组合。从功能上看,深度信念网络的每一个隐藏层都代表着对输入数据的一种中间表示,而隐藏层中的每个神经元都代表着输入数据不同层次上的特征,不同层神经元之间的连接则代表着不同层次特征之间的联系,所有特征和特征之间的所有关系共同形成了对输入数据的抽象描述。是第一个玻尔兹曼机的隐藏层,也就是深度信念网络的第一个隐藏层的输出。原创 2023-04-21 09:19:25 · 133 阅读 · 0 评论 -
人工智能基础课27深度学习-困知勉行者勇:深度强化学习
本质上说,Q学习算法是有限集上的搜索方法,如果出现一个不在原始集合中的新状态,Q算法就无能为力了,所以这是一种不具备泛化能力的算法,也就不能对未知的情况做出预测。为了实现具有预测功能的Q算法,深度强化学习采用的方式是将Q算法的参数也作为未知的变量,用神经网络来训练Q算法的参数,这样做得到的就是深度Q网络。这种方法的问题是在每一轮的策略梯度更新中都需要大量智能体与环境的互动轨迹作为训练数据,但在强化学习中,大量的在线训练数据是难以获取的,这无疑给策略梯度方法带来了很大的限制。原创 2023-04-21 09:18:47 · 84 阅读 · 0 评论 -
人工智能基础课26深度学习-空竹里的秘密:自编码器
如果栈式自编码器的输入是几何形状,那么它的第一层就会学习如何识别边缘,第二层会在第一层学到的边缘概念的基础上,学习如何通过边缘的组合得到轮廓,更高层还会学到如何通过轮廓的组合得到不同的形状这类更高阶的特征。有损压缩的特点决定了它不可能对所有输入都具有较小的信息量损失,因而学习的作用就是习得在训练数据集上更加精确的映射,并希望这样的映射在测试数据上同样表现良好,也就是使自编码器具有较好的泛化性能。在自编码器的另一端,输出层将隐藏层的输出转换为自编码器的整体输出,从而实现了解码映射的功能。原创 2023-04-21 09:16:00 · 51 阅读 · 0 评论 -
人工智能基础课25深度学习-玉不琢不成器:深度学习中的优化
由于牛顿法的目标是寻找梯度为零的临界点,因而会受鞍点的影响较大,高维空间中鞍点数目的激增就会严重限制牛顿法的性能。梯度聚合方法则将先前迭代中得到的梯度估计存储下来,并在每次迭代中对这些估计中的一个或多个进行更新,再通过将搜索方向定义为之前轮次中梯度估计的加权平均,来改善搜索方向的准确性。相对于让所有训练样本的风险函数最小化的原始梯度下降法,随机梯度下降是让每几个样本的风险函数最小化,虽然不是每次迭代得到的结果都指向全局最优方向,但大方向终归是没有错的,其最终的结果往往也在全局最优解附近。原创 2023-04-21 09:14:44 · 58 阅读 · 0 评论 -
人工智能基础课24深度学习-小树不修不直溜:深度学习中的正则化
因而在大部分情况下,对基于正则化项的正则化的讨论就包含了基于误差函数的正则化。常用的参数共享方法是将一个监督学习模型的参数正则化,令其接近另一个无监督学习的模型,那么这个无监督学习模型就可以匹配监督模型的参数。需要注意的是,以上的分类方式并不是互斥的,一种正则化方法通常针对的是学习算法中的多个变量。误差函数表示的是算法输出与目标输出之间的一致性,正则化项表示的则是关于映射关系的额外的假设。以上就是学习算法的整体流程,也是正则化大展拳脚的主战场,正则化的处理就是针对学习算法中的不同变量来展开的。原创 2023-04-21 09:14:00 · 66 阅读 · 0 评论 -
人工智能基础课23深度学习-前方有路,未来可期:深度前馈网络
虽然在0点这个间断点上不满足可微的条件,但在激活的区域上,整流线性单元的一阶导数是常数1,二阶导数则恒等于0。相比于这些函数,整流线性单元的优势在于它的线性特性,这一性质使得模型更加容易优化,对黑箱中的隐藏神经元而言尤其如此。虽然在这个定理的初始证明中,隐藏神经元的传递函数是具有“挤压”性质的非线性函数,但定理的成立性实际上并不取决于传递函数的性质,而是由网络的前馈架构所决定的。寻找损失函数的最小值。但深度网络的非线性特性常常会影响到学习算法的收敛性能,这也是使用非线性函数的神经网络的一个固有特性。原创 2023-04-21 09:13:20 · 68 阅读 · 0 评论 -
人工智能基础课22深度学习-空山鸣响,静水流深:深度学习概述
在这个过程中,高层特征是低层特征的组合,从低层到高层,特征变得越来越抽象,语义的表现就越来越清晰,对目标物的识别也就越来越精确。第一个隐藏层学习到“边缘”的特征,第二个隐藏层学习到的是由“边缘”组成的“形状”的特征,第三个隐藏层学习到的是由“形状”组成的“图案”的特征,最后的隐藏层学习到的是由“图案”组成的“目标”的特征。在64格的国际象棋棋盘上,深蓝的运算能力决定了它能算出12手棋之后的局面下的最优解,而身为人类棋手执牛耳者的卡斯帕罗夫最多只能算出10手棋,多出来的两手棋就会成为左右战局的关键因素。原创 2023-04-21 09:12:36 · 256 阅读 · 0 评论 -
人工智能基础课20人工神经网络-看不见的手:自组织特征映射
自组织映射的拓扑结构并非如多层感知器般的层次结构,而是一张一维或者二维的网格,网格中的每个节点都代表一个神经元,神经元的权重系数则是和输入数据的维度相同的向量。”的效应,它描述的是兴奋的神经元会降低相邻神经元活性的现象。在训练过程中,自组织映射中每个神经元的权重系数首先要初始化,初始化的方式通常是将其赋值为较小的随机数,这可以保证不引入无关的先验信息。在降维的同时,自组织映射妙就妙在还能维持数据在高维空间上的原始拓扑,将高维空间中相似的样本点映射到网络输出层的邻近神经元上,从而保留输入数据的结构化特征。原创 2023-04-20 07:10:37 · 171 阅读 · 0 评论 -
人工智能基础课19人工神经网络-各人自扫门前雪:径向基函数神经网络
感受野理论告诉我们,每个训练数据对曲面的影响都只限于其数据周边的一个小范围内,因而在新样本的插值结果中,贡献较大的是离它比较近的训练数据。高斯形式的径向基函数将每个训练样本映射为一个连续的函数,函数的中心就是样本点的取值。径向基函数是只取决于与中心矢量的距离的函数,也就是不管不同的点是在东西还是南北,只要它们和中心点之间的距离相同,其函数值就是相同的。支持向量机中的核技巧能够把低维空间中的非线性问题映射成高维空间中的线性问题,将低维空间中曲面形式的决策边界转化为高维空间中的超平面,从而降低分类问题的难度。原创 2023-04-20 07:09:48 · 100 阅读 · 0 评论 -
人工智能基础课18人工神经网络-左手信号,右手误差:多层感知器
在由C和D构成的隐藏层中,由于C的输入大于0,因而符号函数使其输出为1;在输出节点的神经元E上,各路输入线性组合的结果为0.5,因而E的输出,也是神经网络整体的输出,为1,与两个输入的异或相等。上面的这个过程发生在单个的隐藏神经元上,而在隐藏层中每个神经元上发生的都是同样的故事,所以整个网络的输出变化就等于所有隐藏神经元上由“权重系数 + 传递函数”计算出的输出变化的总和。在训练过程中,虽然信号的流向是输出方向,但计算出的误差函数和信号传播的方向相反,也就是向输入方向传播的,正因如此,这种学习方式得名。原创 2023-04-20 07:09:02 · 73 阅读 · 0 评论 -
人工智能基础课17人工神经网络-一个青年才俊的意外死亡:神经元与感知器
而当两个输入相同时,输出为假。更重要的是,大量来自政府的经费都涌向罗森布拉特的项目,也许这才是让明斯基不爽的真正原因。异或问题是最简单的逻辑问题之一,如果连异或的分类都无法解决,这样的模型存在的意义就颇为有限了。这样一来,MP神经元的工作形式就类似于数字电路中的逻辑门,能够实现类似“逻辑与”或者“逻辑或”的功能,因而又被称为“阈值逻辑单元”。通俗地说,两个神经细胞之间通过神经元进行的交流越多,它们之间的联系就会越来越强化,学习的效果也在联系不断强化的过程中逐渐产生。都是固定不变的,不能做出动态的调整。原创 2023-04-20 07:08:38 · 267 阅读 · 0 评论 -
人工智能基础课16人工神经网络-道法自然,久藏玄冥:神经网络的生理学背景
神经元的功能被整合为神经网络的功能,神经网络的功能被整合为神经回路的功能,神经回路的功能最终被整合为大脑的思维功能。但巧妙的是,在逐级整合的过程中,每一个层次上实现的都是”1 + 1 > 2”的效果,在较高层次上产生了较低层次的每个子系统都不具备的“突生功能”。这是认知科学的基本问题。其实剑齿虎也好,长毛象也罢,不过是不同波长不同数量的光子的组合,是我们的视网膜和大脑的视觉皮层把这些光子进一步加工为不同的属性,这就是信息抽象的过程。重要的是,数据的传输和处理是同步进行的,并不存在先传输后处理的顺序。原创 2023-04-20 07:08:07 · 372 阅读 · 0 评论 -
人工智能基础课15机器学习-好钢用在刀刃上:降维学习
特征选择的主要应用场景包括书面文本分析和DNA微阵列数据的分析,这些场景下样本的数目通常数以百计,每个样本却可能包含成千上万的特征。主成分分析的优点在于完全不受参数的限制,即不需要先验的参数或模型对计算过程的人为干预,分析的结果只与数据有关。在信号处理理论中,当信号的均值为零时,方差反映的就是信号的能量,能量越大的信号对抗噪声和干扰的能力也就越强。原始样本点在低维超平面上的投影的表达式是。更重要的是,多数情况下不同属性之间会存在相互依赖的关系,如果能够充分挖掘属性之间的相关性,属性空间的维度就可以降低。原创 2023-04-20 07:07:27 · 57 阅读 · 0 评论 -
人工智能基础课14机器学习-物以类聚,人以群分:聚类分析
聚类分析的任务原本是将数据划分到不同的聚类中,可如果我们将样本看作观察值,将潜在类别看作隐藏变量,那么就可以逆向认为数据集是由不同的聚类产生的。-邻域这一概念给出的对邻域的限制,密度的可连接性则通过密度直达关系、密度可达关系、密度相连关系等一系列标准定义,根据这些概念形成的聚类就是由密度可达关系导出的最大的密度相连样本集合。个中心的距离,并将样本划分到离它最近的中心所对应的聚类中。此外,由于算法优化的对象是每个聚类的中心,因而k均值算法倾向于划分出相似大小的聚类,这会降低聚类边界的精确性。原创 2023-04-20 07:06:56 · 524 阅读 · 0 评论 -
人工智能基础课13机器学习-三个臭皮匠,赛过诸葛亮:集成学习
这些未使用的数据没有参与个体学习器的训练,但可以作为验证数据集,用于对学习器的泛化性能做出包外估计,包外估计得到的泛化误差已被证明是真实值的无偏估计。以Boosting方法为代表的序列化方法使用了全体训练数据,并根据每次训练的效果不断迭代以使损失函数最小化,因而可以降低平均意义上的偏差,能够基于泛化能力较弱的学习器构建出较强的集成。如果每个个体学习器的分类精度都不高,在集成时错误的分类结果就可能占据多数,导致集成学习的效果甚至会劣于原始的个体学习器,正如俗语所言“和臭棋手下棋,越下越臭”。原创 2023-04-20 07:06:05 · 150 阅读 · 0 评论 -
人工智能基础课12机器学习-穷则变,变则通:支持向量机
支持向量机的学习问题可以形式化为凸二次规划问题的求解,SMO算法的特点正是不断将原始的二次规划问题分解为只有两个变量的二次规划子问题,并求解子问题的解析解,直到所有变量满足条件为止。正定核函数的充要条件是由函数中任意数据的集合形成的核矩阵都是半正定的,这意味着任何一个核函数都隐式定义了一个成为“再生核希尔伯特空间”的特征空间,其中的数学推导在此不做赘述。第二,对于给定的核函数,高维空间。最简单的情形是训练数据线性可分的情况,此时的支持向量机就被弱化为线性可分支持向量机,这可以视为广义支持向量机的一种特例。原创 2023-04-20 07:05:25 · 76 阅读 · 0 评论 -
人工智能基础课11机器学习-步步为营,有章可循:决策树
在这套策略中,业主对每个可选房源都要做出“买”与“不买”的决策结果,而“每平米价格”、“房屋面积”、“学区房”等因素共同构成了决策的判断条件,在每个判断条件下的选择表示的是不同情况下的决策路径,而每个“买”或是“不买”的决定背后都包含一系列完整的决策过程。信息增益描述的是在已知特征后对数据分类不确定性的减少程度,因而特征的信息增益越大,得到的分类结果的不确定度越低,特征也就具有越强的分类能力。在特征空间上,单变量决策树得到的分类边界是与坐标轴平行的分段,多变量决策树的分类边界则是斜线的形式。原创 2023-04-20 07:04:18 · 81 阅读 · 0 评论 -
人工智能基础课10机器学习-衍化至繁:逻辑回归
而且逻辑回归并不完全依赖于属性之间相互独立的假设,即使给定违反这一假设的数据,逻辑回归的条件似然最大化算法也会调整其参数以实现最大化的数据拟合。逻辑回归则在线性回归的基础上,通过对数似然函数的引入使判定边界的形状不再受限于直线,而是推广为更加复杂的曲线形式,更加精细的分类也就不在话下。在最简单的二分类问题中,分类的标记可以抽象为0和1,因而线性回归中的实值输出需要映射为二进制的结果。周四我和你分享了机器学习中的朴素贝叶斯分类算法,这一算法解决的是将连续取值的输入映射为离散取值的输出的分类问题。原创 2023-04-19 11:23:20 · 43 阅读 · 0 评论 -
人工智能基础课09机器学习-大道至简:朴素贝叶斯方法
还是以贷款申请为例,如果在训练集中没有样本同时具有“年龄大于60”的属性和“发放贷款”的标签,那么当一个退休人员申请贷款时,即使他是坐拥百亿身家的李嘉诚,朴素贝叶斯分类器也会因为后验概率等于零而将他无情拒绝。即使相关性在不同类别上的分布不是均匀的也没关系,只看两个单独的属性,它们之间可能存在强烈的依赖关系,会影响分类的结果。受训练数据集规模的限制,某些属性的取值在训练集中可能从未与某个类同时出现,这就可能导致属性条件概率为0,此时直接使用朴素贝叶斯分类就会导致错误的结论。解决分类问题的依据是数据的属性。原创 2023-04-19 11:22:46 · 62 阅读 · 0 评论 -
人工智能基础课08机器学习-简约而不简单:线性回归
更重要的是,在过拟合的情形下,微小扰动给训练数据带来的毫厘之差可能会导致训练出的模型谬以千里,模型的稳定性也就无法保证。”,即大自然将人类身高的分布约束在相对稳定而不产生两极分化的整体水平,并给出了历史上第一个线性回归的表达式:y = 0.516x + 33.73,式中的y和x分别代表以英寸为单位的子代和父代的身高。对这个现象的一种解释是回归结果可以完美匹配理想样本点的分布,但训练中使用的真实样本点是理想样本点和噪声叠加的结果,因而与回归模型之间产生了偏差,而每个样本点上噪声的取值就等于。原创 2023-04-19 11:22:00 · 64 阅读 · 0 评论 -
人工智能基础课07机器学习-数山有路,学海无涯:机器学习概论
机器学习要做的就是根据已有的训练数据推导出描述所有数据的模型,并根据得出的模型实现对未知的测试数据的最优预测。可模型的参数越多,能与这个模型精确相符的数据也就越少,将这样的模型运用到无穷的未知数据当中,过拟合的出现便不可避免。但在实际生活中,每个国家的人都不是同一个模子刻出来的,其长相自然也会千差万别,因而一个浓眉大眼的韩国人可能被误认为中国人,一个肤色较深的日本人也可能被误认为泰国人。除了算法本身,参数的取值也是影响模型性能的重要因素,同样的学习算法在不同的参数配置下,得到的模型性能会出现显著的差异。原创 2023-04-19 11:20:56 · 80 阅读 · 0 评论 -
人工智能基础课06数学基础-明日黄花迹难寻:形式逻辑
人工智能的早期研究者认为人类认知和思维的基本单元是符号,而认知过程就是对符号的逻辑运算,这样一来,人类抽象的逻辑思维就可以通过计算机中逻辑门的运算模拟,进而实现机械化的人类认知。从“认知即计算”的角度出发,基于计算机的人工智能如果想要达到近似人类的思维能力,也必须建立起“自我”的概念,这就无疑会导致自指的出现,也将成为不完备性定理的活靶子。存储的是输入事实、中间结果与最终结果,当规则库中的某条产生式的前提可与事实库中的某些已知事实匹配时,该产生式就被激活,其结论也就可以作为已知事实存储在事实库中。原创 2023-04-19 11:20:18 · 337 阅读 · 0 评论 -
人工智能基础课05数学基础-万物皆数,信息亦然:信息论
如果对座位的选择添加一个限制条件,比如男生坐左边而女生坐右边,虽然左边的座位分布和右边的座位分布依然是随机的,但相对于未加限制时的情形就会简单很多。这就是分类带来的不确定性的下降。从这个角度看,最大熵原理的本质在于在推断未知分布时不引入任何多余的约束和假设,因而可以得到最不确定的结果,预测的风险也就最小。在生活中,信息的载体是消息,而不同的消息带来的信息即使在直观感觉上也是不尽相同的。这样一来,所有类型的信息都被抽象为逻辑符号,这拓展了通信任务的范畴与信息论的适用性,也将信息的传播和处理完全剥离。原创 2023-04-19 11:19:24 · 100 阅读 · 0 评论 -
人工智能基础课04数学基础-不畏浮云遮望眼:最优化方法
从本质上讲, 人工智能的目标就是最优化:在复杂环境与多体交互中做出最优决策。几乎所有的人工智能问题最后都会归结为一个优化问题的求解,因而最优化理论同样是人工智能必备的基础知识。最优化理论(optimization)研究的问题是判定给定目标函数的最大值(最小值)是否存在,并找到令目标函数取到最大值(最小值)的数值。如果把给定的目标函数看成连绵的山脉,最优化的过程就是判断顶峰的位置并找到到达顶峰路径的过程。要实现最小化或最大化的函数被称为 目标函数(objective function)或评价函数,大多数最优化原创 2023-04-19 11:18:42 · 77 阅读 · 0 评论 -
人工智能基础课03数学基础-窥一斑而知全豹:数理统计
在人工智能的研究中,数理统计同样不可或缺。基础的统计理论有助于对机器学习的算法和数据挖掘的结果做出解释,只有做出合理的解读,数据的价值才能够体现。。虽然数理统计以概率论为理论基础,但两者之间存在方法上的本质区别。概率论作用的前提是随机变量的分布已知,根据已知的分布来分析随机变量的特征与规律;数理统计的研究对象则是未知分布的随机变量,研究方法是对随机变量进行独立重复的观察,根据得到的观察结果对原始分布做出推断。用一句不严谨但直观的话讲:。原创 2023-04-19 11:17:41 · 59 阅读 · 0 评论 -
人工智能基础课02数学基础-月有阴晴圆缺,此事古难全:概率论
最大似然估计法的思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就最符合训练数据的分布。从事件发生的频率认识概率的方法被称为“频率学派”(frequentist probability),频率学派口中的“概率”,其实是一个可独立重复的随机实验中单个结果出现频率的极限。数学期望即均值,体现的是随机变量可能取值的加权平均,即根据每个取值出现的概率描述作为一个整体的随机变量的规律。全概率公式的作用在于将复杂事件的概率求解转化为在不同情况下发生的简单事件的概率求和,即。原创 2023-04-19 11:16:43 · 74 阅读 · 0 评论 -
人工智能基础课01数学基础-九层之台,起于累土:线性代数
“人工智能基础课”将从数学基础开始。必备的数学知识是理解人工智能不可或缺的要素,今天的种种人工智能技术归根到底都建立在数学模型之上,而这些数学模型又都离不开线性代数(linear algebra)的理论框架。事实上,线性代数不仅仅是人工智能的基础,更是现代数学和以现代数学作为主要分析方法的众多学科的基础。从量子力学到图像处理都离不开向量和矩阵的使用。而在向量和矩阵背后,线性代数的核心意义在于提供了⼀种看待世界的抽象视角: 万事万物都可以被抽象成某些特征的组合,并在由预置规则定义的框架之下以静态和动态的方式加原创 2023-04-19 11:15:58 · 78 阅读 · 0 评论 -
大数据基础课13 如何深入分析电商数据中的价值?
在算法策略工程师的日常工作中,一般不会独自去承接一个像“发现好货”这么具体的产品形态,但是要构建“发现好货”,必然少不了算法策略同学在背后的身影。比如在这个例子中,算法策略在后面要承担该场景下商品选品策略,承担召回排序策略,甚至是对文案和图片的选取策略,那么我们从一个产品视角出发,对要构建的产品进行全面详细分析,有助于我们在后面针对性地建设算法模型。这节课,我介绍了在电商场景下进行分析的相关指标,其中 PEST 分析是外部环境分析,接着 SWOT 是分析判断产品的机遇和威胁,优势与劣势。原创 2022-10-12 10:44:25 · 417 阅读 · 0 评论