🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎
📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃
🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝
📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】 深度学习【DL】
🖍foreword
✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。
如果你对这个系列感兴趣的话,可以关注订阅哟👋
文章目录
什么是深度学习?
在我们深入了解深度学习及其应用程序和平台之前,这篇深度学习介绍教程将首先帮助您了解什么是深度学习。深度学习是机器学习的一个子领域,它处理受大脑结构和功能启发的算法。深度学习是机器学习的一个子集,是人工智能 (AI) 的一部分。
人工智能是机器模仿智能人类行为的能力。机器学习允许系统自动从经验中学习和改进。深度学习是机器学习的一种应用,它使用复杂的算法和深度神经网络来训练模型。
深度学习的应用
接下来,在本深度学习教程介绍中,让我们了解一些深度学习的顶级应用。深度学习被广泛用于对降雨、地震和海啸进行天气预报。它有助于采取必要的预防措施。通过深度学习,机器可以理解语音并提供所需的输出。它使机器能够识别提供给它的图像中的人和物体。深度学习模型还可以帮助广告商利用数据进行实时竞价和有针对性的展示广告。在下一节深度学习教程介绍中,我们将介绍深度学习的必要性和重要性。
深度学习的重要性
- 机器学习仅适用于结构化和半结构化数据集,而深度学习适用于结构化和非结构化数据
- 深度学习算法可以高效地执行复杂的操作,而机器学习算法则不能
- 机器学习算法使用标记的样本数据来提取模式,而深度学习接受大量数据作为输入并分析输入数据以从对象中提取特征
- 机器学习算法的性能随着数据数量的增加而降低;所以为了保持模型的性能,我们需要深度学习
什么是神经网络?
现在您已经知道深度学习到底是什么,它的应用和重要性,接下来在深度学习教程的介绍中,让我们看看神经网络及其操作。神经网络是一个以人脑为模型的系统,由一个输入层、多个隐藏层和一个输出层组成。数据作为输入馈送到神经元。使用适当的权重和偏差将信息传输到下一层。输出是人工神经元预测的最终值。
神经网络中的每个神经元执行以下操作:
- 找到每个输入与其传递的通道的权重的乘积
- 计算加权乘积之和,称为加权和
- 神经元的偏置值被添加到加权和
- 然后,最终总和会受到称为激活函数的特定函数的影响
成本函数
成本函数是神经网络的重要组成部分之一。成本值是神经网络预测输出与一组标记训练数据的实际输出之间的差异。最小成本值是通过在整个训练过程中迭代调整权重和偏差获得的。
神经网络如何工作?
在本深度学习简介的下一节中,将训练神经网络识别形状。形状是 28*28 像素的图像。
每个像素都作为第一层神经元的输入。隐藏层提高了输出的准确性。数据从一层到另一层超重通道传递。一层中的每个神经元都对下一层中的每个神经元加权。
第一个隐藏层中的每个神经元都接受输入的一个子集并对其进行处理。所有输入都乘以它们各自的权重,并添加一个偏差。加权和的输出应用于激活函数。激活函数的结果决定了下一层将激活哪些神经元。
第 1 步:x1*w1 + x2*w2 + b1
第 2 步:Φ(x1* w1 + x2*w2 + b1)
其中 Φ 是激活函数
再次执行上述步骤以确保信息到达输出层,之后根据激活函数的值激活输出层中的单个神经元。
如您所见,我们的实际输入是一个正方形,但神经网络预测的输出是一个圆形。那么,出了什么问题?
必须对神经网络进行训练,直到预测输出正确,并通过计算成本函数将预测输出与实际输出进行比较。
使用公式计算成本函数,其中 Y 是实际值,Y 帽子是预测值。成本函数确定预测中的错误并将其报告回神经网络。这称为反向传播。
调整权重以减少误差。网络使用新的权重进行训练。
再次确定成本并继续反向传播过程,直到成本不能再降低为止。
同样,我们的网络也可以被训练来预测圆形和三角形。
现在您已经很好地了解了神经网络的工作原理,让我们来看看一些重要的深度学习平台。
深度学习平台
在后面的深度学习介绍部分,你会了解到几种深度学习平台以及它们在什么时候使用。
Torch
Torch 是使用 LUA 语言开发的,并在 C 中实现。Torch 的 Python 实现称为 PyTorch。
Keras
Keras 是一个用于深度学习的 Python 框架。它的 USP 是 CPU 和 GPU 代码的可重用性。
TensorFlow
TensorFlow 是谷歌开发的开源深度学习库。它是用 C++ 开发的,并在 Python 中实现。Keras 现在可以在 TensorFlow 之上运行。
DL4J
Deep Learning for Java (DL4J) 是第一个为 Java 和 Scala 编写的深度学习库。它集成了 Hadoop 和 Apache Spark。
Google 的 TensorFlow 是目前世界上最受欢迎的学习库。它基于张量的概念,张量是 n 维的向量或矩阵。
下面是具有一维、二维和多维的张量示例。
使用 TensorFlow 执行的所有计算都涉及张量。
下面是 TensorFlow 工作原理的简单架构:
我们将使用来自 UCI 机器学习存储库的成人数据集,并根据特定标准预测一个人的收入是否超过 5 万美元/年。
数据集具有以下属性,例如:
- age(年龄)
- work-class(工人阶级)
- fnlwgt (final weight)
- education(教育)
- education-num(教育编号)
- marital-status(婚姻状况)
- occupation(职业)
- relationship(关系)
- race(种族)
- sex(性别)
- capital-gain(资本收益)
- capital-loss(资本损失)
- hours-per-week(每周几小时)
- native-country(祖国)
- salary(薪水)
让我们开始演示:
1.导入需要的库:
1. Import the required libraries:
2.分配数据集所在的路径和列变量:
3. 使用 Pandas 库创建测试和训练数据框:
4. 打印火车和测试数据集的形状:
5. 打印训练数据集中每一列的数据类型:
6. 将“标签”列值设置为 0,如果它 <=50K,如果它 >=50K 则设置为 1
7. 计算数据集中唯一值的总数:
8、查看label列的数据类型:
9. 为连续变量和分类变量添加特征:
10.创建连续特征变量:
11.建立关系并使用桶创建分类特征:
12. 创建具有两个类以及连续和分类特征的模型:
13.分配所有特征并定义一个函数:
14.训练模型:
15. 评估模型:
16. 年龄平方:
17. 为训练和测试创建新的数据框:
18.打印数据框的形状:
19.定义新创建的变量:
20. 创建线性分类器模型:
21. 用新创建的列定义一个函数:
22.训练模型:
23.评估模型:
24. 模型预测:
25. 预测测试集的输出:
如您所见,该模型成功地预测了训练数据集中两个观察结果的结果。