人工智能概念类知识点总结

本文介绍了Python中的numpy库及其广播机制,详细探讨了Novikoff定理下的感知机模型、超平面和范数概念,涉及搜索算法如深度优先和启发式搜索,重点讲解了机器学习中的自我修正模型、SVM和自然语言处理,以及深度学习中的CNN和过拟合。此外,还提到了A*搜索算法和K-Means聚类在实际问题中的应用。
摘要由CSDN通过智能技术生成

2. 常用函数

二、Novikoff定理

1. 感知机

2. 感知机模型

3. 超平面

4. 范数

5. 朴素贝叶斯分类器

6. Novikoff定理描述与证明

三、搜索算法

1. 分类

2. 启发式搜索

3. 八数码问题(深度优先算法)

4. 背包问题(启发式搜索方法)

5. 迷宫问题(最佳优先搜索算法)

四、机器学习(自我修正模型)

1. 思想

2. 机器学习的应用

3. 感知机的回归分析方法

4. SVM向量机(支持向量机)带

5. 为什么机器学习很重要?

五、自然语言处理

1. 自然语言处理的应用

2. 语言模型设计与难点

3. 词频统计

4. Jieba库的主要函数

六、深度学习

1. 深度学习网络结构

2. 激活函数

3. CNN卷积神经网络

4. 神经网络算法

5. 卷积核

6. 过拟合(over-fitting)

7. 人工智能—机器学习-深度学习

8. K-Means算法


一、numpy方面


1. 广播机制

使用ufunc对两个数组进行运算时,如果数组的形状不相同,就会进行下广播处理。简而言之,就是向两个数组每一维度上的最大值靠齐。(节省资源,计算方便)

np.arange(start,stop,step)(等差数组)np.ones(N)(全一数组)Np.sort(array,axis=0)(排序)np.zeros(N)(全0数组)np.array([])(生成数组)np.linspace()(a,b,10)(从a到b九等分)np.empty((2,3), np.int)(创建2*3的整形型空矩阵,只分配内存)np.ogrid(:5,:5)(生成用于广播的数组,列行)

2. 常用函数

随机数:from numpy import random as nr nr.rand(m,n)(0-1随机)、randint(l,h,(m,n))(规定范围内随机整数)、uniform(均匀分布)、normal(生态分布的随机)、shufftle(随机打乱顺序)、poisson(泊松分布);sum(x,axis=0/1)(求和列/行)、average(加权平均)、var(方差(x-mean)2/n)、mean(期望)、std(标准差)、product(连乘积);min(最小值)、max、ptp(极差)、argmin(最小值下标)、mininum(二元最小值)、maxnum(二元最大值)、sort(数组排序)、argsort(数组排序下标)、percentile(分位数)(第p个百分位数是这样一个值,它使得至少有p%的数据项小于或等于这个值,且至少有(100-p)%的数据项大于或等于这个值,np.percentile(a,52))、median(中位数)。

二、Novikoff定理


1. 感知机

感知机:感知机是二分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1或-1两种。感知机旨在求出将训练数据集进行线性划分的分类超平面,引入了基于误分类的损失函数,再对损失函数进行极小化,从而求出感知机模型。

2. 感知机模型

3. 超平面

4. 范数

[L0范数:向量中非0元素的个数;L1范数:向量中各个元素绝对值之和

L0范数和L1范数可以实现稀疏,L1因比L0更好的优化求解特性而被广泛使用;L2范数是向量个元素的平方和然后求平均根;可以实现对模拟空间的限制,从而避免过拟合,提升模型的泛化能力。]

5. 朴素贝叶斯分类器

6. Novikoff定理描述与证明

三、搜索算法


1. 分类

A.盲目搜索:深度优先(回溯),广度优先(FIFO)

B.启发式搜索:分支限界法,博弈树搜索,最佳优先算法,A*搜索

2. 启发式搜索

为减小搜索范围,而需要利用某些已知的、有关具体问题领域的特性信息(启发信息)特点: A.大多数是深度优先搜索算法的改进版;B.在有多条路径可走,会给出该走哪条路径的建议;C.利用问题中的已知条件,尽快找到问题的解;D.可采用估值的方法进行搜索指导;E.状态空间小,搜索时间短并且效率高、容易控制,使问题易于得到解。

3. 八数码问题(深度优先算法)

在宽度优先搜索过程中,需要遍历目标节点所在层之前每层的所有节点,即需要遍历所有的分支。而深度优先搜索过程中,则不需要遍历这么多的节点。所以,在八数码的求解过程中,深度优先搜索的效率明显比宽度优先搜索的效率要高。

4. 背包问题(启发式搜索方法)

A.定义解空间 x={(0,0,0),…(1,1,1)} B.决定解空间结构(画空间树) C.用深度优先方式搜索解空间,用剪枝函数避免无效搜索(S是死节点,因为背包的容量超出,此时剪枝)D.得最优解为(0,1,1)最优值为50  ****剪枝技术:****基本思想:在当前扩展结点的右子树(或左子树)的价值上界,如果满足一定约束条件,则可以裁剪掉右子树(或左子树)。常用剪枝函数:A.用约束函数在扩展结点处剪去不满足约束的子树 B.用限界函数剪去得不到最优解的子树

5. 迷宫问题(最佳优先搜索算法)

对OPEN表中所有节点的f(n)进行比较,按从小到大的顺序重排OPEN表。其算法效率类似于DFS,但使用了与问题特性相关的估价函数来确定下一步待扩展的节点,因此是一种启发式搜索 OPEN 表: 保存了所有已生成但是未访问过的节CLOSED 表: 记录已访问过的节点。步骤:A.把S放入OPEN表,计算估值函数 B.判断OPEN表是否为空 C.把OPEN表中第一个节点N放入CLOSED表 D.判断N是否为目标节点 E.扩展N计算所有子节点的估值函数 F.把子节点放入OPEN表,对所有节点按估值函数值由小到大重排 A.OPEN是否为空 (画出生成树)

四、机器学习(自我修正模型)


1. 思想

机器学习是数据通过算法构建出模型并对模型进行评估,评估的性能如果达到要求就拿这个模型来测试其他的数据,如果达不到要求就调整算法来重新建立模型,再次进行评估,如此循环往复,最终获得满意的经验来处理其他的数据。分类:监督学习,无监督学习,半监督学习,强化学习(是否标注)****监督学习:****从给定的训练数据集中学习一个函数(模型),当新的数据到来时,可以根据这个函数(模型)预测结果。常见的监督学习算法包括回归分析和统计分类。无监督学习:无监督学习中数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。 应用场景:关联规则的学习以及聚类等。算法:Apriori算法和K-Means算法。(聚类算法、降维算法)****半监督学习:****主要考虑如何利用少量的标注样本和大量的未标注样本进行训练和分类的问题。应用场景:分类和回归。处理人工合成数据;算法:图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM) ****强化学习:****通过观察学习动作来完成,每个动作都会对环境有所影响,学习对象根据观察到的周围环境的反馈来做出判断。在强化学习下,输入数据直接反馈到模型,模型必须对此立刻做出调整。 应用场景:动态系统,机器人控制等。算法:Q-Learning (奖惩机制),时间差学习(Temporal difference learning)

2. 机器学习的应用

数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人等领域。三要素: 算法、模型、评估(模型设计,性能评估,参数优化)****常见算法:****回归算法(监督学习):线性回归、逻辑回归;神经网络(监督学习);SVM支持向量机(监督学习);聚类算法(无监督学习);降维算法(无监督学习)

3. 感知机的回归分析方法

回归算法:回归算法有两个重要的子类:即线性回归和逻辑回归;线性回归就是如何拟合出一条直线最佳匹配所有的数据,逻辑回归是一种与线性回归非常类似的算法。线性回归处理的问题类型与逻辑回归不一致:线性回归处理的是数值问题,预测数字。逻辑回归属于分类算法,预测类别。SVM算法是逻辑回归算法的强化:通过给予逻辑回归算法更严格的优化条件,支持向量机算法可以获得比逻辑回归更好的分类界线。既可以保持计算效率,又可以获得非常好的分类效果。聚类算法是无监督学习算法中最典型的代表;就是计算种群中的距离,根据距离的远近将数据划分为多个族群;最典型的代表就是K-Means算法。降维算法也是一种无监督学习算法,主要特征是将数据从高维降低到低维。维度表示数据的 特征量的大小。通过降维算法,可以去除冗余信息,可以压缩数据与提升机器学习效率。

****(1)感知机基本理论:****用一条曲线去尽量准的拟合这些数据,如果有新的输入过来,我们可以在将曲线上这个点的对应值返回。****应用步骤:****根据客观现象的定性认识确定变量之间是否存在相关关系;估计相关关系的大概类型(经验);绘制散点图,推测回归模型;回归分析并拟合回归模型;检验回归模型可信度;应用模型进行预测

**(2)损失函数(loss function)**是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。损失函数:误分类点的总数。

(3)数据集:学习样本数据集,通过匹配一些参数来建立一个分类器。建立一种分类的方式,主要是用来训练模型的。作用:估计模型。测试集:测试训练好的模型的分辨能力(识别率)。作用:检验最终选择最优的模型的性能如何。验证集:对学习出来的模型,调整分类器的参数,如在神经网络中选择隐藏单元数。验证集还用来确定网络结构或者控制模型复杂程度的参数。作用:确定网络结构或者控制模型复杂程度的参数。

4. SVM向量机(支持向量机)带

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数前端工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Web前端开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且会持续更新!

如果你觉得这些内容对你有帮助,可以扫码获取!!(备注:前端)

最后

本人分享一下这次字节跳动、美团、头条等大厂的面试真题涉及到的知识点,以及我个人的学习方法、学习路线等,当然也整理了一些学习文档资料出来是附赠给大家的。知识点涉及比较全面,包括但不限于前端基础,HTML,CSS,JavaScript,Vue,ES6,HTTP,浏览器,算法等等

详细大厂面试题答案、学习笔记、学习视频等资料领取,点击资料领取直通车免费领取!

前端视频资料:
码获取!!(备注:前端)**

[外链图片转存中…(img-stv78x2g-1713643531408)]

最后

本人分享一下这次字节跳动、美团、头条等大厂的面试真题涉及到的知识点,以及我个人的学习方法、学习路线等,当然也整理了一些学习文档资料出来是附赠给大家的。知识点涉及比较全面,包括但不限于前端基础,HTML,CSS,JavaScript,Vue,ES6,HTTP,浏览器,算法等等

详细大厂面试题答案、学习笔记、学习视频等资料领取,点击资料领取直通车免费领取!

[外链图片转存中…(img-vKV1vK0L-1713643531408)]

前端视频资料:

  • 25
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值