【人工智能】人工智能与机器学习的相关介绍

人工智能的发展历程

在这里插入图片描述
重要的时间点了解一下:
早在1950年人工智能就已经开始兴起
1997年deep blue战胜了人类国际象棋的冠军(这时还没有去使用深度学习)
2011年siri智能体作为语音助手
2012年的时候deep learning开始火爆起来,去完成很多复杂的业务,比如说图像识别,自然语言处理相关的一些业务
2017年阿尔法狗智能体与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。其主要工作原理是“强化学习”结合“深度学习”

人工智能与机器学习关系图谱

人工智能包含机器学习,机器学习包含深度学习
在这里插入图片描述

数据处理

在这里插入图片描述

机器学习ML和深度学习DL的区别

机器学习:将数据拿到,并对数据做一个特征提取(这个过程中,人为来选择用什么样的算法来去做这个特征抽取),将提取到的东西给到神经网络,神经网络去计算每一个连接上的数值,最后再输出一个预测的结果

深度学习:数据输入,用一个更大更深的神经网络去做,只需要将数据输入给到神经网络,不需要做特征提取再带入算法什么的,直接就可以让它给你输出

区别:深度学习相比于机器学习更经济(减少了一些人为的参与)且深度学习可训练的参数更多,是更端到端的学习方式,往往模型训练速度更快,可以解决更复杂的问题
在这里插入图片描述


人工智能按照学习方式划分

监督学习:知道输入和输出结果之间的关系,根据这种已知的关系,训练得到一个最优的模型,训练数据既有特征(feature)又有标签(label),通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签。既有x又有y(有题目有答案)。例子:回归、分类,房价预测

无监督学习:不知道数据之间的关系(一堆乱的数据),根据聚类(分组)或一定的模型得到数据之间的关系,可以这么说,比起监督学习,无监督学习更像是自学,让机器学会自己做事情,是没有标签(label)的。只有x没有y(有题目没有答案)例子:聚类、降维

半监督学习:通过结合少量有标签数据和大量无标签数据来进行学习。有x有一点y(有大量题目少部分题目的答案)

强化学习:描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。一个agent需要不断地在环境中进行实验,通过环境给予的反馈(奖励)来不断优化状态-行为的对应关系。


监督学习算法

回归算法

本质:拟合历史已有的数据,将拟合出来的函数走势预测未来
目标:预测-inf(负无穷)到+inf(正无穷)之间具体的值,连续值
应用:股票预测、房价预测
在这里插入图片描述
分类算法

本质:找到分界,根据分界对新来的数据进行分类
目标:对新的数据预测出属于各个类别的概率,正确的类别概率越大越好,最后通过选择概率最大的类别为最终类别,类别号为离散值
应用:图像识别、情感分析、银行风控
在这里插入图片描述

无监督学习算法

聚类算法

本质:根据样本和样本之间的相似度归堆
目标:将一批数据进行划分到多个组
应用:用户分组、异常检测、前背景分离
在这里插入图片描述

降维算法

本质:去掉冗余信息量或噪声
目标:将数据的维度减少
应用:数据的预处理、可视化、提高模型计算速度
在这里插入图片描述


总结

回归任务的本质是去拟合
分类任务的本质是找到分界
聚类任务的本质是分组
降维任务的本质是去掉数据冗余,去掉数据的噪声

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@¥文竹¥

你的鼓励是我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值