人工智能与神经网络基础概念
什么是人工智能?通俗来讲,就是让机器能像人一样思考。这个无需解释太多,因为通过各种科幻电影我们已经对人工智能很熟悉了。大家现在感兴趣的应该是——如何实现人工智能?
从1956年夏季首次提出“人工智能”这一术语开始,科学家们尝试了各种方法来实现它。这些方法包括专家系统,决策树、归纳逻辑、聚类等等,但这些都是假智能。直到人工神经网络技术的出现,才让机器拥有了“真智能”。
为什么说之前的方法都是假智能呢?因为我们人类能清清楚楚地知道它们内部的分析过程,它们只是一个大型的复杂的程序而已;而人工神经网络则不同,它的内部是一个黑盒子,就像我们人类的大脑一样,我们不知道它内部的分析过程,我们不知道它是如何识别出人脸的,也不知道它是如何打败围棋世界冠军的。我们只是为它构造了一个躯壳而已,就像人类一样,我们只是生出了一个小孩而已,他脑子里是如何想的我们并不知道!这就是人工智能的可怕之处,因为将来它有可能会觉得我们人类不应该活在这个世界上,而把我们消灭掉;为此,世界上已经成立了不少安全协会来防范人工智能。
人工神经网络是受到人类大脑结构的启发而创造出来的,这也是它能拥有真智能的根本原因。在我们的大脑中,有数十亿个称为神经元的细胞,它们连接成了一个神经网络。
人工神经网络正是模仿了人类大脑的网络结构。下面是一个人工神经网络的构造图。每一个圆代表着一个神经元,他们连接起来构成了一个网络。
人类大脑神经元细胞的树突接收来自外部的多个强度不同的刺激,并在神经元细胞体内进行处理,然后将其转化为一个输出结果。
人工神经元也有相似的工作原理。如下图所示。
上面的x是神经元的输入,相当于树突接收的多个外部刺激。w是每个输入对应的权重,它影响着每个输入x的刺激强度。
大脑的结构越简单,那么智商就越低。单细胞生物是智商最低的了。人工神经网络也是一样的,网络越复杂它就越强大,所以我们需要深度神经网络。这里的深度是指层数多,层数越多那么构造的神经网络就越复杂。
训练深度神经网络的过程就叫做深度学习。网络构建好了后,我们只需要负责不停地将训练数据输入到神经网络中,它内部就会自己不停地发生变化不停地学习。打比方说我们想要训练一个深度神经网络来识别猫。我们只需要不停地将猫的图片输入到神经网络中去。训练成功后,我们任意拿来一张新的图片,它都能判断出里面是否有猫。但我们并不知道他的分析过程是怎样的,它是如何判断里面是否有猫的。就像当我们教小孩子认识猫时,我们拿来一些白猫,告诉他这是猫,拿来一些黑猫,告诉他这也是猫,他脑子里会自己不停地学习猫的特征。最后我们拿来一些花猫,问他,他会告诉你这也是猫。但他是怎么知道的?他脑子里的分析过程是怎么样的?我们无从知道~~
编程语言基础知识支持
人工智能和神经网络学科,离不开基础知识的支持:
-
Python 基本操作 (赋值、分支及循环语句、使用 import 导入库);Python 的 With 语句 ;
-
NumPy ,Python 下常用的科学计算库。
-
Matplotlib,Python语言及其数值计算库NumPy的绘图库
-
SciPy,开源的Python演算法库和数学工具包
-
Pandas
数学基础知识支持
-
高等数学/线性代数/微积分
-
导数
- 导数(Derivative),也叫导函数值。又名微商,是微积分中的重要基础概念。当函数y=f(x)的自变量x在一点x0上产生一个增量Δx时,函数输出值的增量Δy与自变量增量Δx的比值在Δx趋于0时的极限a如果存在,a即为在x0处的导数,记作f'(x0)或df(x0)/dx。
- 一个函数在某一点的导数描述了这个函数在这一点附近的变化率。如果函数的自变量和取值都是实数的话,函数在某一点的导数就是该函数所代表的曲线在这一点上的切线斜率。导数的本质是通过极限的概念对函数进行局部的线性逼近。
- 不是所有的函数都有导数,一个函数也不一定在所有的点上都有导数。若某函数在某一点导数存在,则称其在这一点可导,否则称为不可导。然而,可导的函数一定连续;不连续的函数一定不可导。
-
对于可导的函数f(x),x↦f'(x)也是一个函数,称作f(x)的导函数(简称导数)。寻找已知的函数在某点的导数或其导函数的过程称为求导。实质上,求导就是一个求极限的过程,导数的四则运算法则也来源于极限的四则运算法则。反之,已知导函数也可以反过来求原来的函数,即不定积分。
微积分基本定理说明了求原函数与积分是等价的。求导和积分是一对互逆的操作,它们都是微积分学中最为基础的概念。
- 函数y=f(x)在x0点的导数f'(x0)的几何意义:表示函数曲线在点P0(x0,f(x0))处的切线的斜率(导数的几何意义是该函数曲线在这一点上的切线斜率)。
-
-
积分
-
微分
-
由函数B=f(A),得到A、B两个数集,在A中当dx靠近自己时,函数在dx处的极限叫作函数在dx处的微分,微分的中心思想是无穷分割。微分是函数改变量的线性主部。微积分的基本概念之一。
-
设函数y = f(x)在x的邻域内有定义,x及x + Δx在此区间内。如果函数的增量Δy = f(x + Δx) - f(x)可表示为 Δy = AΔx + o(Δx)(其中A是不随Δx改变的常量,但A可以随x改变),而o(Δx)是比Δx高阶的无穷小(注:o读作奥密克戎,希腊字母)那么称函数f(x)在点x是可微的,且AΔx称作函数在点x相应于因变量增量Δy的微分,记作dy,即dy = AΔx。函数的微分是函数增量的主要部分,且是Δx的线性函数,故说函数的微分是函数增量的线性主部(△x→0)。
-
当自变量X改变为X+△X时,相应地函数值由f(X)改变为f(X+△X),如果存在一个与△X无关的常数A,使f(X+△X)-f(X)和A·△X之差是△X→0关于△X的高阶无穷小量,则称A·△X是f(X)在X的微分,记为dy,并称f(X)在X可微。
-
-
-
线性回归
-
梯度下降方法 求函数的局部最小值。
-
-
基本初等函数
-
幂函数
-
指数函数
-
对数函数
-
三角函数
-
-
向量与行列式
-
向量的记法:印刷体记作黑体(粗体)的字母(如a、b、u、v),书写时在字母顶上加一小箭头“→”
-
向量可以用有向线段来表示。有向线段的长度表示向量的大小,向量的大小,也就是向量的长度。长度为0的向量叫做零向量,记作长度等于1个单位的向量,叫做单位向量。箭头所指的方向表示向量的方向
-
在平面直角坐标系中,分别取与x轴、y轴方向相同的两个单位向量i,j作为一组基底。a为平面直角坐标系内的任意向量,以坐标原点O为起点P为终点作向量a。由平面向量基本定理可知,有且只有一对实数(x,y),使得a=xi+yj,因此把实数对(x,y)叫做向量a的坐标,记作a=(x,y)。这就是向量a的坐标表示。其中(x,y)就是点P的坐标。向量a称为点P的位置向量
-
向量的大小,也就是向量的长度(或称模)。向量a的模记作|a|。向量的模是非负实数,向量的模是可以比较大小的。向量
而
-
方向相同或相反的非零向量叫做平行(或共线)向量.向量a、b平行(共线),记作a∥b。零向量长度为零,是起点与终点重合的向量,其方向不确定。我们规定:零向量与任一向量平行。平行于同一直线的一组向量是共线向量
-
直线l⊥α,取直线l的方向向量a,则向量a叫做平面α的法向量
-
向量运算
-
交换律:a+b=b+a;
结合律:(a+b)+c=a+(b+c)。
-
数乘
- 实数λ和向量a的叉乘乘积是一个向量,记作λa,且|λa|=|λ|*|a|
-
数量积(内积 点积 点乘)
- 向量积(叉积)
-
混合积
-
给定空间三向量a、b、c,向量a、b的向量积a×b,再和向量c作数量积(a×b)·c,所得的数叫做三向量a、b、c的混合积,记作(a,b,c)或(abc),即(abc)=(a,b,c)=(a×b)·c
-
-
-
-
矩阵(矩阵的加减法、矩阵与向量相乘、矩阵与矩阵相乘、矩阵的转置等)
- 由 m × n 个数aij排成的m行n列的数表称为m行n列的矩阵,简称m × n矩阵
- 这m×n 个数称为矩阵A的元素,简称为元,数aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元,以数 aij为(i,j)元的矩阵可记为(aij)或(aij)m × n,m×n矩阵A也记作Amn。
-
矩阵的线性运算
-
加法/减法
- 结果的每个元素是A和B相应元素的和/差
-
A+B=B+A
-
(A+B)+C=A+(B+C)
-
- 结果的每个元素是A和B相应元素的和/差
- 数乘
- 标量C与矩阵A的数乘:cA的每个元素是A的相应元素与c的乘积,
-
-
- 标量C与矩阵A的数乘:cA的每个元素是A的相应元素与c的乘积,
- 转置
- 把矩阵A的行和列互相交换所产生的矩阵称为A的转置矩阵
-
-
- 矩阵乘法
- 两个矩阵的乘法仅当第一个矩阵A的列数和另一个矩阵B的行数相等时才能定义。如A是m×n矩阵和B是n×p矩阵,它们的乘积C是一个m×p矩阵
-
C=AB
-
-
矩阵乘法可以看做是A的第i行和B的第j列之间的点积。
-
-
几个特殊矩阵
-
对角矩阵: 只有主对角线上含有非零元素
-
单位矩阵:行数与列数相等的方阵,并且所有沿着主对角线的元素都是1,其他位置的元素都是0。
-
-
范数
范数有很多种,L0范数,p=0;L1范数,p=1。
对于Lx范数,其中p=x
L0范数表示向量X中非0元素的个数
L1范数表示向量中所有元素绝对值的和
L2范数表示向量的元素平方和再求平方根
-
概率论
- 期望
- 定义是以概率(或密度)为权重的加权平均值
- 定义是以概率(或密度)为权重的加权平均值
- 方差
- 方差刻画了概率分布的分散度。方差的定义是一个随机变量与它的期望之间的差的平方的加权平均值。这里的权重仍然是概率(或者密度)。
- 贝叶斯公式
- 期望