LLM大模型技术实战2:大白话带你入门深度学习

一、深度学习的基本概念


1.1 基本概念

  • 神经网络: 它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。神经网络是一种运算模型,由大量神经元之间相互联接构成。学习如何构建和训练神经网络是入门的重要一步。

  • 神经元: 神经元模型是一个包含输入,输出与计算功能的模型。

  • 前向传播和反向传播: 它是神经网络的基本运行方式,前向传播用于计算输出,反向传播用于更新网络参数。

  • 激活函数: 激活函数决定神经元的输出。学习不同的激活函数以及它们的作用。

  • 损失函数: 损失函数用于衡量模型的预测与实际结果之间的差异。了解不同的损失函数和它们的适用场景。

  • 优化算法: 优化算法用于更新神经网络的参数以最小化损失函数。了解常用的优化算法,如随机梯度下降法(SGD)和Adam。

1.2 深度学习框架

以下是一些常见的深度学习框架:

  • TensorFlow2:由 Google 开发的开源框架,简单,模块封装比较好,容易上手,对新手比较友好。在工业界最重要的是模型落地,目前国内的大部分企业支持TensorFlow模型在线部署,不支持Pytorch。

  • PyTorch:由 Facebook 开发的开源框架,前沿算法多为PyTorch版本,如果是你高校学生or研究人员,建议学这个。相对于TensorFlow,Pytorch在易用性上更有优势,更加方便调试。

  • **Keras:**是一个极简的、高度模块化的神经网络库,采用 Python(Python 2.7-3.5.)开发,能够运行在 TensorFlow 和 Theano 任一平台,旨在完成深度学习的快速开发。

TensorFlow 适合工业应用构建大型项目,PyTorch 适合学术研究构建小型项目。个人推荐使用 PyTorch,原因很简单,因为简单易懂。而且,它还弥补了 Tensorflow 静态构图的致命弱点。PyTorch 是可以构建动态计算图。也就是说你可以随时改变神经网络的结构,而不影响其计算过程。而 Tensorflow 这种静态图模块,一旦搭建好了神经网络, 你想修改结构也不行。

1.3 经典模型

学习一些经典的深度学习模型和案例将帮助你更好地理解深度学习的应用和工作原理。包括:

卷积神经网络(CNN):常用于图像识别和计算机视觉任务的常用模型,是一种专门用来处理具有类似网格结构的数据的神经网络。卷积网络在图像识别,自然语言处理,灾难性气候预测、围棋人工智能等诸多应用领域都表现优异。卷积神经网络通常由3个部分构成:卷积层,池化层,全连接层。简单来说,卷积层负责提取图像中的局部及全局特征;池化层用来大幅降低参数量级(降维);全连接层用于处理“压缩的图像信息”并输出结果。

循环神经网络(RNN):用于序列数据建模和自然语言处理任务的常用模型,传统神经网络的结构比较简单,通常为:输入层 – 隐藏层 – 输出层。

生成对抗网络(GAN):用于生成新的数据样本的模型。是近年来深度学习领域的一个热点方向。GAN并不指代某一个具体的神经网络,而是指一类基于博弈思想而设计的神经网络。GAN由两个分别被称为生成器(Generator)和判别器(Discriminator)的神经网络组成。其中,生成器从某种噪声分布中随机采样作为输入,输出与训练集中真实样本非常相似的人工样本;判别器的输入则为真实样本或人工样本,其目的是将人工样本与真实样本尽可能地区分出来。生成器和判别器交替运行,相互博弈,各自的能力都得到升。理想情况下,经过足够次数的博弈之后,判别器无法判断给定样本的真实性,即对于所有样本都输出50%真,50%假的判断。此时,生成器输出的人工样本已经逼真到使判别器无法分辨真假,停止博弈。这样就可以得到一个具有“伪造”真实样本能力的生成器。

Transformer:用于自然语言处理任务,如机器翻译和文本生成。Transformer模型在2017年被google提出,直接基于 Self-Attention 结构,取代了之前NLP任务中常用的RNN神经网络结构。与RNN这类神经网络结构相比,Transformer一个巨大的优点是:模型在处理序列输入时,可以对整个序列输入进行并行计算,不需要按照时间步循环递归处理输入序列。与seq2seq模型类似,Transformer模型结构中的左半部分为编码器(encoder),右半部分为解码器(decoder)。

二、经典入门Demo实战


2.1 深度学习原理

“深度学习”这四个字拆解成两个词就是“深度”和“学习”。“学习”大概是我们学生时代接触最频繁的词,那时候的学习就是上课、做题,最终通过考试。如果更抽象一点描述,学习就是认知的过程,从未知到已知的探索与思考过程。最早的学习,1+1=2,想想我们是怎么学习的?伸出一只手指,再伸出一只手指,数一数,两只手指那就是2。

这里定义一个概念,输入和输出,输入就是已知的信息,输出就是由输入获得的认知的结果。我们将一个从已有的信息,通过计算、判断和推理得到结果的认知过程统称为“学习”。

如何让机器也可以进行学习呢?学术界为此提出了“神经网络”的概念。人脑中负责活动的基本单元是神经元,这些神经元互相连接成一个被称为神经网络的庞大结构。由此,学术界模仿人脑“神经网络“建立一个人工神经网络(ANN),我们通常也简称为神经网络。

将1+1=2用神经网络可以表示为如下结构。

我们将“1”、“+”、“1”与“2”同时作为输入不断训练神经网络(不断告诉机器1+1=2),在训练若干次后,神经网络将会学会“1+1=2”。同样的,我们将1+2=3放入神经网络中去,不断进行训练,若干次后神经网络也将学会1+2=3。如此循环往复,我们可以教会神经网络进行加法运算,进而可以让神经网络学会算术运算,我们把这个过程称为深度学习。

深度学习在生活中的应用不仅仅局限于此,在自动驾驶、语音识别、自动机器翻译、即时视觉翻译(拍照翻译)、目标识别等等领域也都有重要应用,例如:手机上的小爱同学、地铁口的人脸识别…

2.2 一个手写数字的识别的实现过程Demo

下面我将通过一个手写数字的识别的案例来进一步讲解深度学习,带领大家体验一次完整的深度学习实现的全过程。

假设现在我们手上很多张手写的数字图片,需要通过深度学习让机器“认识”这些图片上的数字,然后告诉我们每一张图片上的数字是多少。

那么我们应该如何实现呢?总体的思路如下:

  • 我们先拿出 6 万张图片给机器进行学习(需要告诉机器每一个图片上写的是哪一个数字)。

  • 在学习后,再拿出1万张机器没“见过”的图片给它进行识别,让它告诉我们,图片上写的是哪一个数字。

  • 重复上面的过程,直到机器可以认识手写的数字。

至此,完成便可实现手写数字识别这一效果。

程序执行步骤:

  • ① 学习6万张图片上的数字

  • ② 用1万张图片测试机器的学习效果(这1万张不参与①的训练)

  • ③ 重复①、②

现在你需要做的是:了解每一个模块实现的功能,从整体上把握整份代码。

开发环境:

  • 语言环境:Python3.10.11

  • 编译器:Jupyter Notebook

  • 深度学习框架:TensorFlow 2.4.1

1. 准备数据

导入数据

在这里插入图片描述

在这里插入图片描述

准备好 6 万张带有标签的训练图片让机器进行学习。1 万张测试图片让机器进行识别,测试其是否学会了。(60000, 28, 28) 表示为:60000 张 28*28 像素的图片。

可视化

这里我们用第三方库 matplotlib 输出手写数字图片,看看我们的手写数字(数据集)是什么样子的。

加粗样式

调整图片格式

需要将图片调整为特定格式程序才可以进行学习

#调整数据到我们需要的格式train_images = train_images.reshape((60000, 28, 28, 1))test_images  = test_images.reshape((10000, 28, 28, 1))# 输出数据sahpetrain_images.shape,test_images.shape,train_labels.shape,test_labels.shape



`((60000, 28, 28, 1), (10000, 28, 28, 1), (60000,), (10000,))`


(60000, 28, 28, 1):表示为:60000张 28*28 的灰度图片,最后一个数字为1时,代表灰度图片;为3时代表彩色图片。

2. 构建神经网络模型

我们将图片输入到网络,图片首先会将其数字化,紧接着通过卷积层提取图片上这个数字的特征,最后通过数字的特征判断这个数字是哪一个。结构图如下:

上面的结构图中,向我们展示了五层结构,那么每一层具体是用来做什么的呢?

  • 输入层:用于将数据输入到神经网络

  • 卷积层:使用卷积核提取图片特征,卷积核相当于一个小型的“特征提取器”

  • Flatten层:将多维的输入一维化,常用在卷积层到全连接层的过渡

  • 全连接层:起到“特征提取器”的作用

  • 输出层:输出结果

卷积核与全连接层从某些方面上讲都有提取特征的作用,但是所采用的方法是不同的。

这部分为深度学习的核心内容,就是构建模型,先不管这快,现在我们主要任务是跑通整个程序,从整体上了解一下深度学习是什么。

在这里插入图片描述

3. 编译模型

在这一步,我们需要设置模型的优化器,损失函数、评价函数:

  • 优化器:帮助模型更好的训练

  • 损失函数:用于估量预测值与真实值的不一致程度

  • 评价函数:评价模型的质量

在这里插入图片描述

4. 训练模型

将数据传入模型进行训练,传入的数据分为训练数据、验证数据两部分。训练数据(训练集)用于训练模型,验证数据(验证集)用于监测模型的效果。epochs 表示模型的学习轮数(次数)。

在这里插入图片描述

5. 预测

在这里插入图片描述

输出测试集中第一张图片的预测数组

在这里插入图片描述

这组浮点数对应着0~9,最大的浮点数对应着的数字就是神经网络的预测结果。
在这里插入图片描述

在这里插入图片描述

总结

我们通过算术学习、手写数字识别了解了什么是深度学习,也用TensorFlow2实现了手写数字识别,从整体上了解了一个深度学习程序是什么样子的,应该有哪些步骤

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值