人工智能
文章平均质量分 79
qq_43133135
这个作者很懒,什么都没留下…
展开
-
脑皮质算法(3)-- 新皮层的位置:利用皮层网格细胞的感觉运动物体识别理论
我们的大脑通过处理我们的感官输入和动作来了解外部世界。当我们触摸一个物体、观察一个视觉场景或探索一个环境时,大脑会接收到一系列的感觉和动作,即感觉运动序列。传统上被认为是感觉区域的皮层区域是将运动流整合到它们的处理过程中的。在视觉中,我们感知到的是一个稳定的世界图像,通常忽略了我们的眼睛每秒进行多个眼跳运动的事实。当眼睛移动时,视觉皮层中许多代表特定刺激的神经元会在刺激到达细胞的感受野之前预测到刺激(Duhamel et al., 1992)。原创 2022-11-13 14:23:00 · 1185 阅读 · 1 评论 -
脑皮质算法(2)一种基于新皮层网格细胞的智能和皮质功能的框架
人类的大脑皮层会学习一个极其复杂和详细的世界模型。我们每个人都能识别1000个物体。我们知道这些物体是如何通过视觉、触觉和听觉出现的,我们知道这些物体在我们与它们互动时的行为和变化,我们知道它们在世界上的位置。人类的新大脑皮层也学习抽象物体的模型,那些物理上不存在或我们不能直接感知的结构。大脑皮层的回路也很复杂。了解大脑皮层的复杂回路如何学习世界的复杂模型是神经科学的主要目标之一。弗农·蒙特卡斯尔(Vernon Mountcastle)是第一个提出新皮层的所有区域从根本上是相同的。原创 2022-11-07 19:37:11 · 789 阅读 · 0 评论 -
脑皮质算法篇(1)-- 导读
《新皮层的位置:利用皮层网格细胞的感觉运动物体识别理论》,这篇论文研究了位置感知如何预测即将到来的输入,并阐述了这种位置感知如何预测即将到来的输入,论文提出了新皮质6层中的三层之间的映射关系,并含模拟过程,算法数学描述及源码实现链接。的神经元如何创造出预测性序列记忆的。,里面包含了他一系列的文章。jeff Hawkins(杰夫。原创 2022-10-26 18:33:40 · 793 阅读 · 0 评论 -
CPG控制网络入门
从线性变换开始推导原创 2022-07-19 17:41:36 · 2668 阅读 · 7 评论 -
神经网络和自动控制的联系
以下从两个方面讲述,正向使用即不带误差传播,在神经网络上直接是正向传播过程。误差传播过程在神经网络中被称为误差反向传播。原创 2022-07-15 15:00:48 · 591 阅读 · 0 评论 -
强化学习(Q-Learning)与路径搜索(A*)的联系
作为路径搜索的一种典型算法,是在广度优先搜索(BFS)的基础上扩展的。A*算法是在BFS的基础上,加入一个启发值,这个启发值又被称为代价函数:f(n)=g(n)+h(n)这物体如果用q-learning来解决,其实问题也是类似,不过强化学习中对各个部分进行了严格的划分,并且强调了个体的概念在强化学习中,使用奖励r的概念替换了代价的概念,从字面意思我们也能知道他们其实是刚好相反的概念,正如一个是乐观主义一个是悲观主义。但这并不妨碍对本质问题的处理,代价最小化的等价问题也就是奖励最大化。我们可以看到,强化学习使原创 2022-07-14 12:27:16 · 2145 阅读 · 1 评论 -
opencv 2.49 Kmeans.cpp源码分析
源码位于opencv-2.4.9\modules\ocl\src\kmeans.cpp主要就是两个函数,一个是中心点选取法:The Advantages of Careful Seeding,另一个是kmeans算法generateCentersPP函数对应于k-means++的中心点初始化引入随机化,下一个被选为中心点的样本不是固定的,而是一个概率值,这个概率值正比于“整体最小距离“。/*k-means center initialization using the following a原创 2022-05-30 09:31:08 · 261 阅读 · 0 评论 -
MeanShift、K-Means与GMM迭代
MeanShift聚类又称均值漂移算法,首先需要一个迭代半径r,相似阈值T对每个数据,作为一个新类,从其位置半径r内,选择满足相似条件的数据,放到一个表中。计算表内数据的位置均值,数据均值,将新的位置和均值作为该类的特征,重新计算满足相似条件的数据,不断迭代直到收敛。相当于数据有两个相似条件,一个位置相似条件r,一个数据相似条件T。K-Means聚类该方法被称为k均值,首先需要选定k个聚类中心。对每个数据,计算出最近的聚类中心C,将其放入C类的数据列表中拿到每个聚类中心列表中的原创 2022-05-10 15:09:00 · 586 阅读 · 0 评论 -
L1和L2正则化
正则化的作用我们在机器学习中,常常会使用正则化来缓解维度灾难的问题。根据选择的惩罚函数不同,效果也不同,我们常用的处罚函数有L1范数和L2范数,分别叫做L1正则化和L2正则化。L1正则化选择L1范数进行惩罚:我们改写为:J=J0+α∑w∣w∣J=J_0+α∑_w∣w∣J=J0+α∑w∣w∣我们能看到,函数由一个二次函数J0J_0J0 和一个绝对值函数构成,我们分别对其绘制等高线:我们很容易看到,在L1惩罚函数的等高线上,J0J_0J0函数在坐标轴上的(0,w2)达到了最小值。所以说L原创 2022-05-07 14:54:15 · 378 阅读 · 0 评论 -
SVM原理入门
支持向量机我们对支持向量机的理解,可以用二维来说明,比如需要找一条最优的直线(超平面)将两类点分开:不过这里需要定义一下说明是最优,那就是:使得离直线较近的点具有最大间距如下有5个蓝色样本,标记为y =1,紫色有5个样本,标记为 y=-1,共10个样本:{(x₁,y₁),(x₂,y₂).........(x10,y10)}\{(x₁ ,y₁) , (x₂,y₂) .........(x_{10},y_{10}) \}{(x₁,y₁),(x₂,y₂).........(x10,y10)} 。原创 2022-03-15 05:45:31 · 294 阅读 · 0 评论 -
无监督算法
无监督算法简介就是依靠数据之间的相似度,形成数据的类别。层次聚类比如有7个数据点,A,B,C,D,E,F,G。我们采用数据的欧式距离作为相似度(距离越小越相似):将数据分别两两计算相似度:得到BC的距离最小,这样我们就得到一个新的集合或者说是类:(B,C)。这样我们下一次计算相似度时,只有6个元素了:A,(B,C),D,E,F,G。然后两两计算相似度,得到:当然,要提到的一点是,对于任意元素(如A)和集合(B,C)之间的距离度量,则取A分别和B,C的距离的均值(下面是几何均值):当然若原创 2022-03-01 06:08:05 · 1503 阅读 · 0 评论 -
PNN概率神经网络
1、贝叶斯决假设对于测试样本xxx,共有mmm中类别可能 {w1,⋯,wm}\{ w_1 , ⋯ , w _m\}{w1,⋯,wm},则判断样本类别的贝叶斯决策是:max{p(w1∣x),p(w2∣x),⋯ ,p(wm∣x)}\max \{ p({w_1}\left| x \right.),p({w_2}\left| x \right.), \cdots ,p({w_m}\left| x \right.)\}max{p(w1∣x),p(w2∣x),⋯,p(wm∣x)}2、PNN网络如下原创 2022-02-24 05:43:20 · 3935 阅读 · 0 评论 -
windows下V-Rep下载及安装教程
V-Rep下载这里我们下载的是EDU版本,我们首先进入官网V-Rep官网,然后看到下面页面:我们直接点下载EDU版本(绿色框)那个,是下载不了的。我们要点Previous versions of CoppeliaSim / V-REP,然后进入下面页面:这里我用最新版本,大家也可以找旧的版本去下载:如何解压双击安装就可以了。一路next,直到安装结束:这里提示缺少文件,去下个文件就可以了。这里给出安装包:链接:https://pan.baidu.com/s/1n_gY_ZZYl原创 2021-08-12 00:12:05 · 8379 阅读 · 9 评论 -
Adaboost
基本原理基本原理就是将多个弱分类器结合,形成一个强分类器。Adaboost采用迭代的思想,每次迭代只训练一个弱分类器,训练好的弱分类器将参与下一次迭代的使用。也就是说,在第N次迭代中,一共就有N个弱分类器,其中N-1个是以前训练好的,其各种参数都不再改变,本次训练第N个分类器。其中弱分类器的关系是第N个弱分类器更可能分对前N-1个弱分类器没分对的数据,最终分类输出要看这N个分类器的综合效果。弱分类器(单层决策树)Adaboost一般使用单层决策树作为其弱分类器,且其输出只有二值(1,-1)。单原创 2020-12-14 14:05:34 · 2026 阅读 · 0 评论 -
分享一些机器学习比较好的资源
机器翻译:统计建模与深度学习方法 (第二版) - 基础篇统计学习方法线性代数(Linear Algebra)中文笔记原创 2020-12-13 15:13:56 · 102 阅读 · 0 评论 -
LBP人脸识别
LBP特征LBP特征呢网上比较多,就不多说了,就是邻域像素和中心点像素比较,二值化后排列成8位,将这8位组合成一个unsigned char变量,就是该中心点处的LBP特征,对每个点执行该运算,则形成一幅LBP图。LBP等价模式由于LBP取值范围是【0–255】,特征太多,所以抽取其中的等价模式,一共59个。抽取方式就是循环一圈,计算跳变次数,按跳变次数将LPB特征分为两类:1、跳变次数不超过2次(如边缘、角点会有两次,平面则只有0次)1、跳变次数超过2次LBP直方图按照等价模式,对一个原创 2020-12-13 12:07:42 · 922 阅读 · 0 评论 -
01-现代控制论
经典控制论主要是面向SISO(单输入单输出)的控制理论,而现代控制论则主要是面向于MIMO(多输入多输出)的控制理论。内容简介现代控制理论建立在基于矩阵的状态方程和观测方程之上,它引入了系统自身状态,认为外界的因素对系统的作用通常是改变了系统自身状态,其自身状态的改变才导致可观测的状态发生了改变。研究分支主要有如下几方面:1、线性系统理论2、最优控制3、随机系统理论与最优估计4、系统辨识5、自适应控制6、非线性系统理论7、鲁棒控制与鲁棒性分析8、分布参数控制9、离散事件控制原创 2020-11-22 22:58:03 · 895 阅读 · 1 评论 -
00-经典控制论
人工智能三大学派行为主义:主要基于控制论,构建感知-动作控制系统,如倒立摆控制等等,平衡车之类的,主要用于模仿行为。符号主义:主要基于逻辑表达式,用if-else或者case之类的去求解问题,逻辑与或非等。如专家系统等等,主要用于模仿理性思维。连接主义:主要基于仿生学,模仿神经元连接。如神经网络等等,主要用于模仿自觉和感性思维。经典控制论简介通常我们叫自动控制理论,目的是使得系统(被控对象)的某些参数或状态按照预定的的规律运行,途径是通过控制器控制执行器。控制器:所谓控制器,通常就是指原创 2020-11-18 14:59:43 · 1407 阅读 · 0 评论 -
贝叶斯滤波详解
贝叶斯滤波贝叶斯公式 :这个公式告诉我们可以由先验概率(prior knowledge),根据因果概率(causal knowledge)去估计后验概率。或者说后验概率可以通过先验概率的不断修正得到,而这个修正就是通过利用因果概率进行的。\qquad举个例子: 设x事件为我偷吃烤鸭,y事件为我喝水\qquad我们容易知道两个事件没有必然联系,但是我们由常识(causal knowledge)知道我吃了烤鸭有40%的可能会渴的去喝水。\qquad现在问:你妈发现了你进厨房喝水了,你偷吃原创 2020-10-01 20:55:34 · 3082 阅读 · 4 评论 -
误差传播算法
误差传播误差种类及来源观测精度误差正向传播误差反向传播误差种类及来源测量学中,真值X减去测量值Li被称为误差(观测误差):Δi=Li−X\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\quad Δ_i=L_i-XΔi=Li−X误差可分为: &...原创 2019-07-21 19:37:15 · 3504 阅读 · 1 评论