![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能机器学习应用开发
文章平均质量分 77
分享人工智能、机器学习等方面的开发知识
夏天又到了
这个作者很懒,什么都没留下…
展开
-
PyTorch案例之X光肺部感染识别
ResNet50相比于传统的卷积神经网络模型具有更深的网络结构,通过引入残差连接(Residual Connection)解决了深层网络训练过程中的梯度消失问题,有效提升了模型的性能。世界卫生组织的报告显示,全球每年因肺炎致死的儿童多达200万,超过HIV/AIDS、疟疾和麻疹致死人数的总和,成为儿童夭折的首要原因。而肺部感染的X光胸片影像特征如图17-2所示,肺部炎症呈斑点状、片状或均匀的阴影,有病变的肺叶或肺段出现有斑片样的表现,肺炎后期可能出现肺部影像大片发白。项目所用到的图像分类模型。原创 2024-07-19 09:40:57 · 399 阅读 · 0 评论 -
【图书推荐】《PyTorch深度学习与计算机视觉实践》
在人工智能的浩瀚星空中,深度学习犹如一颗耀眼的明星,引领着计算机视觉技术的发展。《PyTorch深度学习与计算机视觉实践》带领读者领略深度学习在计算视觉领域的魅力,详解使用PyTorch 2.0进行计算机视觉应用实战的技巧。本书配套示例源码、PPT课件。原创 2024-07-19 09:35:33 · 766 阅读 · 0 评论 -
基于Transformer模型的谣言检测系统的实现
在Transformer的编码器中,我们使用注意力机制来提取各个词的语义信息,这里需要引入不同词的位置信息,让注意力机制不仅考虑词之间的语义信息,还需要考虑不同词的上下文信息,Transformer中使用的是位置编码(Position Encoding),就是将每个词所在的位置形成一个嵌入向量,然后将这个向量与对应词的嵌入向量加和,然后“喂”进注意力机制网络中。输入语句:凌晨的长春,丢失的孩子找到了,被偷走的车也找到了,只是偷车贼没找到,看来,向雷锋同志学习50周年的今天,还是一个有效果的日子啊。原创 2024-07-18 09:33:07 · 1074 阅读 · 0 评论 -
PyTorch面部表情识别项目实战
自定义函数需要继承 nn.Module 子类,然后定义好参数和所需的变量,在forward方法中编写计算损失函数的过程,然后PyTorch会自动计算反向传播需要的梯度,不需要我们自己进行计算。因此,通过对人脸表情的识别可以获得很多有价值的信息,从而分析人类的心理活动和精神状态,并为各种机器视觉和人工智能控制系统的应用提供解决方案。加载预训练的MobileNetv3模型,由于预训练的模型与我们的任务需要不一样,因此需要修改最后的全连接层,将输出维度修改为我们的任务要求中的7个分类(7种面部表情)。原创 2024-07-17 09:15:15 · 1058 阅读 · 0 评论 -
PyTorch垃圾分类任务与垃圾图片数据集
这个数据集有15 150幅图片,来自12种不同类别的家庭垃圾:纸张、纸板、生物、金属、塑料、绿色玻璃、棕色玻璃、白色玻璃、衣服、鞋子、电池和垃圾,其中白色玻璃杯如图7-3所示。例如,每次给一幅垃圾的图片,让模型识别出这属于哪一种类别,属于干垃圾、湿垃圾、有害垃圾还是可回收垃圾。如图7-2所示,我们对图片中的物品进行分类,目前一般都是采用多级分类模型或检索搭建的超大分类网络,比如 1 万多类物体识别,甚至10万多类物体识别。第三种是翻论文,找公开数据集,到AI比赛网站或者AI开放平台碰碰运气,看。原创 2024-07-16 08:02:02 · 311 阅读 · 0 评论 -
图注意力网络
它的设计灵感来自自然语言处理领域中的注意力机制,旨在处理图数据时引入注意力机制,以便更好地捕捉节点之间的关系和信息。图卷积神经网络的关键思想是:为每个节点动态计算邻居节点的注意力权重,并使用这些权重对邻居节点的特征进行加权求和,从而生成节点的表示。请注意,在实际应用中,你可能需要使用更复杂的图注意力网络变体,例如多头图注意力网络,以获得更好的性能。这段代码实现了一个基于图神经网络的图分类模型,并提供了训练和测试函数,可以用于学习和评估图数据集上的分类任务。原创 2024-07-15 08:36:29 · 373 阅读 · 0 评论 -
PyTorch人脸识别
如果不手动下载预训练模型,可能速度会很慢,可以从作者提供的源代码文件链接中下载,然后放到C:\Users\你的用户名\.cache\torch\checkpoints这个文件夹下面,如图11-7所示。通过神经网络将人脸映射到欧式空间的特征向量上,实质上不同图片的人脸特征距离较大,而通过相同个体的人脸距离总是小于不同个体的人脸。(2)不同人的人脸之间的特征要尽可能不同。FaceNet只负责提取128维的人脸特征向量,通过对比输入人脸向量与数据库中人脸向量的欧式距离来确定人脸的相似性。原创 2024-07-15 08:29:43 · 610 阅读 · 0 评论 -
理解深度学习中的过拟合和Dropout
随着迭代次数的增加,我们可以发现测试数据的loss值和训练数据的loss值存在着巨大的差距, 如图4-8所示,随着迭代次数的增加,training loss越来越好,但test loss却越来越差,test loss 和 training loss的差距越来越大,模型开始过拟合。做个类比,无性繁殖可以保留大段的优秀基因,而有性繁殖则将基因随机拆了又拆,破坏了大段基因的联合适应性,但是自然选择中选择了有性繁殖,“物竞天择,适者生存”,可见有性繁殖的强大。原创 2024-07-12 08:54:38 · 354 阅读 · 0 评论 -
PyTorch人脸检测
人脸检测解决的问题是确定一幅图上有没有人脸,而人脸识别解决的问题是这张脸是谁的。安装OpenCV,可以通过下载OpenCV的.whl文件,使用pip install opencv_python-3.4.0-cp36-库,Dlib库提供的功能十分丰富,它提供了Python接口,里面有人脸检测器,也有训练好的人脸关键点检测器。进行实时图像捕获,首先需要学点OpenCV的基础知识,起码知道如何从摄像头获取当前拍到的图像。upgrade,结果如图11-3所示表示成功解决。运行结果如图11-4所示。原创 2024-07-11 08:28:34 · 1121 阅读 · 1 评论 -
【赠书活动第5期】《PyTorch深度学习与企业级项目实战》
本书立足于具体的企业级项目开发实践,以通俗易懂的方式详细介绍PyTorch深度学习的基础理论以及相关的必要知识,同时以实际动手操作的方式来引导读者入门人工智能深度学习。本书配套示例项目源代码、数据集、PPT课件与作者微信群答疑服务。原创 2024-05-13 08:01:25 · 1183 阅读 · 1 评论 -
LangChain的基本构成、组件与典型场景
此外,我们还将学习如何使用LangChain提供的工具和接口,实现与ChatGLM3的交互和通信,从而构建出功能强大的自然语言处理应用。ChatGLM3作为目前领先的中文大模型,拥有出色的语言理解和生成能力,而LangChain则为我们提供了一个灵活、高效的开发框架。在人工智能的持续演进中,语言模型,尤其是大型语言模型(LLM),例如备受瞩目的ChatGPT,已经稳固地占据了科技前沿的核心地位。特定文档的问答:利用大语言模型技术栈,可以从Notion等数据库中提取特定文档的信息,并准确回答用户的问题。原创 2024-07-04 12:06:02 · 671 阅读 · 0 评论 -
使用ChatGLM3自带的网页客户端
除了我们上面使用自定义的gradio组件完成网页客户端的搭建,智谱AI的ChatGLM3在创建之初就本着“方便用户,以人为本”的原则,为用户提供了对应的网页客户端代码,从而方便用户直接使用网页端的ChatGLM3应用程序。接下来,直接在Python中右键run运行web_demo.py文件,在合并了存档记录后,读者的网页客户端会自动打开如下地址,此时,ChatGLM3会运行在本地,界面如图3-24所示。我们通过这个界面,可以开启多轮对话,读者可以依据自己的问题与ChatGLM交互,从而获得相关问题的答案。原创 2024-07-01 09:06:28 · 401 阅读 · 0 评论 -
使用gradio搭建私有云ChatGLM3网页客户端
虽然我们可以使用前期学习的内容自主搭建一个适配于ChatGLM3的网页客户端,但是gradio还是为我们提供了了一个自定义的ChatGLM3网页对话客户端模板,我们只需要简单的几行代码,即可完成一个私有云ChatGLM3网页客户端。对于一般使用网页端完成部署的用户来说,最少需要准备一个自定义的网页端界面。以上内容对于有过前端经验的读者来说可能并不复杂,但是对于一般深度学习模型开发人员来说,从头学习前端知识及其代码编写,可能需要耗费大量的时间和成本,那么有没有一种简易的方法帮助我们完成网页客户端的搭建。原创 2024-07-01 09:03:32 · 348 阅读 · 0 评论 -
ChatGLM的使用与Prompt介绍
这是一个经典的文本抽取任务,希望通过ChatGLM抽取其中的内容,在这里我们使用了一个Prompt(中文暂时称为“提示”),Prompt是研究者为了下游任务设计出来的一种输入形式或模板,它能够帮助ChatGLM“回忆”起自己在预训练时“学习”到的东西。Prompt也可以帮助使用者更好地“提示”预训练模型所需要做的任务,在这里我们通过Prompt的方式向ChatGLM传达一个下游任务目标,即需要其对文本进行信息抽取,抽取其中蕴含的手机、邮箱、账号、密码等常用信息。最终显示结果如图16-7所示。原创 2024-06-28 07:56:18 · 271 阅读 · 0 评论 -
【图书推荐】《图神经网络基础、模型与应用实战》
图神经网络不仅能够解决传统机器学习方法无法解决的图数据问题,而且能够应用于许多实际场景,例如社交网络、药物发现、网络安全、金融风控等。本书旨在为初学者和实践者提供一个详细、全面的入门指南,围绕图神经网络基础、模型、应用实战(均采用Python+PyTorch实现)等方面进行介绍。本书配套示例源码、数据集、PPT课件。原创 2024-05-27 08:57:32 · 1124 阅读 · 0 评论 -
通过ChatGLM的简单例子体验大模型
经过约1TB标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿个参数的ChatGLM-6B虽然规模不及千亿模型的ChatGLM-130B,但大大降低了推理成本,提升了效率,并且已经能生成相当符合人类偏好的回答。需要注意的是,即使问题是一样的,但是回答也有可能不同,因为我们所使用的ChatGLM是生成式模型,前面的生成直接影响了后面的生成,而这一点也是生成模型不好的地方,前面的结果有了波动,后面就会发生很大的变化,会产生滚雪球效应。最终展示的结果如图16-6所示。原创 2024-06-28 07:51:50 · 639 阅读 · 0 评论 -
使用Hugging Face获取BERT预训练模型
BERT是一个预训练模型,其基本架构和存档都有相应的服务公司提供下载服务,而Hugging Face是一家目前专门免费提供自然语言处理预训练模型的公司。Hugging Face是一家总部位于纽约的聊天机器人初创服务商,开发的应用在青少年中颇受欢迎,相比于其他公司,Hugging Face更加注重产品带来的情感以及环境因素。在GitHub上开源的自然语言处理、预训练模型库Transformers提供了NLP领域大量优秀的预训练语言模型和调用框架。(1) 安装依赖。原创 2024-06-25 08:17:17 · 537 阅读 · 0 评论 -
基于Netron库的PyTorch 2.0模型可视化
前面章节带领读者完成了基于PyTorch 2.0的MNIST模型的设计,并基于此完成了MNIST手写体数字的识别。此时可能有读者对我们自己设计的模型结构感到好奇,如果能够可视化地显示模型结构就更好了。读者可以自行在百度搜索Netron。Netron是一个深度学习模型可视化库,支持可视化地表示PyTorch 2.0的模型存档文件。因此,我们可以把3.1.2节中PyTorch的模型结构保存为文件,并通过Netron进行可视化展示。原创 2024-06-25 08:12:07 · 602 阅读 · 0 评论 -
基于深度学习的端到端语音识别时代
作为一款多任务模型,它不仅可以执行多语言语音识别,还可以执行语音翻译和语言识别等任务。对于一段语音,CTC最后输出的是尖峰的序列,尖峰的位置对应建模单元的Label,其他位置都是Blank。随着深度学习的发展,语音识别由DNN-HMM时代发展到基于深度学习的“端到端”时代,这个时代的主要特征是代价函数发生了变化,但基本的模型结构并没有太大变化。随着端到端技术的突破,深度学习模型不再需要对音素内部状态的变化进行描述,而是将语音识别的所有模块统一成神经网络模型,使语音识别朝着更简单、更高效、更准确的方向发展。原创 2024-05-30 09:25:20 · 434 阅读 · 0 评论 -
【图书推荐】《PyTorch语音识别实战》
PyTorch语音识别实战》使用PyTorch 2.0作为语音识别的基本框架,循序渐进地引导读者从搭建环境开始,逐步深入到语音识别基本理论、算法以及应用实践,是较好的一本语音识别技术图书。本书配套示例源码、数据集、PPT课件等资源。原创 2024-05-30 09:21:22 · 827 阅读 · 0 评论 -
【图书推荐】《机器学习实战(视频教学版)》
本书基于Python语言详细讲解机器学习算法及其应用,用于读者快速入门机器学习。本书配套示例源代码、PPT课件、教学视频、教学大纲、习题与答案、作者微信答疑。本书共分12章,内容包括机器学习概述、Python数据处理基础、Python常用机器学习库、线性回归及应用、分类算法及应用、数据降维及应用、聚类算法及应用、关联规则挖掘算法及应用、协同过滤算法及应用,最后通过3个综合实战项目(包括新闻内容分类实战、泰坦尼克号获救预测实战、中药数据分析项目实战),帮助读者对所学技能进行巩固和提升。原创 2024-05-28 17:03:46 · 1094 阅读 · 0 评论 -
图卷积神经网络的简史 及其与卷积神经网络的异同
图卷积神经网络(GCN)已经在处理图结构数据方面取得了巨大的成功。在本小节中,我们将深入探讨图卷积神经网络的起源、发展历程,并提供一个简单的Python代码实现示例,以帮助读者更好地理解这一概念。原创 2024-05-27 09:20:59 · 376 阅读 · 0 评论 -
13个PyTorch深度学习案例简介
新闻文本分类项目,中文新闻分类数据集,GPT-2模型。第15章 基于大语言模型的自然语言处理项目实战。第9章 空气质量识别分类与预测项目实战。第6章 迁移学习花朵识别项目实战。第17章 X光肺部感染识别项目实战。第18章 乐器声音音频识别项目实战。第12章 图像风格迁移项目实战。第14章 糖尿病预测项目实战。原创 2024-05-23 09:31:09 · 422 阅读 · 0 评论 -
什么是预训练模型
如果你要做一个计算机视觉的应用,相比于从头训练权重,或者说从随机初始化权重开始,如果你下载别人已经训练好网络结构的权重,通常能够进展得相当快,可以用这个作为预训练模型,然后转换到你感兴趣的任务上。有时候这些训练过程需要花费好几周,并且需要很多GPU,其他人已经做过了,并且经历了非常痛苦的寻最优过程,这就意味着你可以使用花费了别人好几周甚至几个月做出来的开源的权重参数,把它当作一个很好的初始化用在你自己的神经网络上,用迁移学习把公共的数据集知识迁移到你自己的问题上。有许多训练好的网络都可以下载。原创 2024-05-23 08:28:39 · 616 阅读 · 0 评论 -
使用GPU加速PyTorch代码计算速度
使用GPU加速可以显著提高深度学习模型的训练速度。我们将模型转移到GPU上时,模型的所有参数和缓冲区都会转移到GPU上,我们需要确保输入的张量也在GPU上,否则。PyTorch提供了简单易用的API,让我们很容易在CPU和GPU之间切换计算。通过合理地使用GPU,可以大大提高模型的训练和推理速度。cuda(),而将张量转移到CPU上可以使用x_cpu = x.cpu()。在进行模型训练时,通常会将模型和数据都移动到GPU上。将张量转移到GPU上,也可以用x_dev = x.原创 2024-05-22 09:18:26 · 396 阅读 · 1 评论 -
在Windows环境下安装GPU版的PyTorch
Windows环境下安装GPU版的PyTorch,是PyTorch深度学习的第一个门槛。本文详解GPU版的PyTorch安装步骤。原创 2024-05-22 09:15:04 · 1241 阅读 · 0 评论 -
PyTorch中Tensor简介
PyTorch中所有的操作都是基于Tensor(张量)的,因此理解张量的含义并能够自由创建张量是十分必要的。张量是PyTorch中最基本的操作对象。我们可以用数学中的概念来辅助理解一下张量,如图5-1所示。标量、矢量、矩阵都属于张量,标量是零维张量,向量是一维张量,矩阵是二维张量。张量还可以是三维的、四维的等。PyTorch的张量与NumPy中的ndarray类似,但是在PyTorch中,张量可以使用GPU进行计算以提高运算性能。原创 2024-05-21 11:06:03 · 540 阅读 · 0 评论 -
卷积神经网络经典模型架构简介
而ILSVRC(ImageNet Large-Scale Visual Recognition Challenge,ImageNet大规模视觉识别挑战赛)成立于2010年,旨在提高大规模目标检测和图像分类的最新技术,ILSVRC作为最具影响力的竞赛,促进了许多经典的卷积神经网络架构的发展,功不可没。而top5只要概率向量中最大的前5名里有分类正确的,则为正确。如图4-14所示,ILSVRC比赛分类项目,2012年冠军AlexNet(top-5错误率为16.4%,8层神经网络)、2014年亚军。原创 2024-05-21 10:57:58 · 405 阅读 · 0 评论 -
在Windows环境下安装CPU版的PyTorch
,在主页中根据自己的计算机选择Linux、Mac或Windows系统,如图2-18所示,系统将给出对应的安装命令语句,比如这里为pip3 install torch torchvision torchaudio。PytTorch是基于Python开发的,首先需要安装Python,Python的安装很简单,这里不再赘述。而 Windows用户能直接通过conda、pip和源码编译三种方式来安装PyTorch。如果没有报错,则说明PyTorch安装成功。打开PyTorch官网(原创 2024-05-14 08:26:38 · 398 阅读 · 1 评论 -
PyTorch进行CIFAR-10图像分类
在这个网络模型中,我们使用nn.Module来定义网络模型,然后在__init__方法中定义网络的层,最后在forward方法中定义网络的前向传播过程。CIFAR-10图像数据集共有60 000幅彩色图像,这些图像是32×32的,分为10个类,分别是airplane、automobile、bird、cat等,每类6 000幅图,如图5-4所示。(6)Optimizer 优化过程中,Model 根据规则改变自身参数的权重,这是一个反复循环和持续的过程,直到Loss值趋于稳定,不能再取得更小的值。原创 2024-05-14 08:20:49 · 960 阅读 · 0 评论 -
什么是卷积神经网络
卷积神经网络是一种多层神经网络,擅长处理图像特别是大图像的机器学习相关问题。卷积网络通过一系列方法成功将数据量庞大的图像识别问题不断降维,最终使其能够被训练。综上所述,卷积神经网络通过卷积来模拟特征区分,并且通过卷积的权值共享及池化来降低网络参数的数量级,最后通过传统神经网络完成分类等任务。由上文我们知道,卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(Deep Learning)的代表算法之一。原创 2024-05-13 08:06:19 · 1039 阅读 · 1 评论 -
通过简单的代码领略一下ChatGLM3大模型
需要读者注意的是,即使问题是一样的,但是每一次运行代码得到的回答也有可能是不一样的,因为我们所使用的ChatGLM是生成式模型,前面的生成直接影响了后面的生成,而这点也是生成模型相对于一般模型不同的地方,前面的结果有了波动,后面就会发生很大的变化,会有一个滚雪球效应。另外,我们采用的CPU版本的ChatGLM3推演,可以看到此时的耗时较长,因此推荐读者尽量采用GPU版本的模型进行后续的学习。其开源的第三代基座大语言模型ChatGLM3-6B,模型的性能较前一代大幅提升,可以认为是最强的中文基础大模型!原创 2024-05-10 10:53:08 · 217 阅读 · 0 评论 -
ChatGLM大模型简介
同时,ChatGLM还具备了出色的记忆能力,可以记住与它交流过的每一个细节,实现个性化的交流体验。端侧推理:ChatGLM3 推出可手机部署的端测模型 ChatGLM3-1.5B 和 ChatGLM3-3B,支持在手机端的调用,速度可以达到20 tokens/s,一般成年人阅读的速度是每秒2~5个单词,完全足够。可以预见,ChatGLM不仅可以作为一个自然语言处理大模型,还可以广泛应用于其他的应用场景,例如教育辅导、智能客服、智能助手、智能写作等多个领域,为人们的生活带来极大的便利。原创 2024-05-09 08:49:27 · 671 阅读 · 0 评论 -
【图书推荐】《从零开始大模型开发与微调:基于PyTorch与ChatGLM》
王晓华,高校计算机专业讲师,研究方向为云计算、大数据与人工智能。原创 2024-05-08 15:49:02 · 790 阅读 · 0 评论 -
为什么要使用大模型
随着OpenAI引领的超大模型风潮,大模型的发展日新月异,如同雨后春笋般茁壮成长。在现今的科技舞台上,每周,甚至每一天,我们都能见证到一个全新模型的开源,这些模型的创新性和实用性不断超越前作,彰显出深度学习的无穷潜力。更重要的是,随着技术的进步和方法的优化,大模型的微调训练成本也大大降低,使得更多的研究者和实践者有机会亲自体验和使用这些大型模型。就如同原本昂贵的奢侈品逐渐走入寻常百姓家,大模型也从曲高和寡的研究领域逐渐扩展到了更广泛、更接地气的应用场景。原创 2024-05-08 15:37:06 · 877 阅读 · 0 评论 -
图神经网络的应用领域
本文讲解一下图神经网络(GNN)在不同领域中的应用场景,包括社交网络分析、推荐系统、生物信息学、交通网络优化等场景。读者在碰到需要解决这些场景下的问题时,记得阅读这本书来寻找思路。原创 2024-05-07 08:16:19 · 472 阅读 · 0 评论 -
【图书推荐】《ChatGLM3大模型本地化部署、应用开发与微调》
ChatGLM3大模型本地化部署、应用开发与微调》作为《PyTorch 2.0深度学习从零开始学》的姊妹篇,专注于大模型的本地化部署、应用开发以及微调等。《ChatGLM3大模型本地化部署、应用开发与微调》不仅系统地阐述了深度学习大模型的核心理论,更注重实践应用,通过丰富的案例和场景,引导读者从理论走向实践,真正领悟和掌握大模型本地化应用的精髓。原创 2024-05-06 10:08:10 · 1206 阅读 · 0 评论 -
大模型的概念与特点
大模型,顾名思义,是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,参数数量动辄数十亿甚至数千亿。大模型的设计初衷是为了提高模型的表达能力和预测性能,使其能够处理更加复杂的任务和数据。在自然语言处理、计算机视觉、语音识别和推荐系统等领域,大模型都展现出了卓越的性能和广泛的应用前景。原创 2024-05-06 09:19:43 · 773 阅读 · 0 评论 -
【赠书活动第3期】《PyTorch 2.0深度学习从零开始学》
PyTorch是一个开源的机器学习框架,它提供了动态计算图的支持,让用户能够自定义和训练自己的神经网络,目前是机器学习领域中流行的框架之一。本书基于PyTorch 2.0,详细介绍深度学习的基本理论、算法和应用案例,配套示例源代码、PPT课件。原创 2024-04-29 09:11:59 · 1267 阅读 · 7 评论 -
PyTorch构建神经网络的简单示例
PyTorch的一个重要功能就是autograd,它是为方便用户使用,而专门开发的一套自动求导引擎,能够根据输入和前向传播过程自动构建计算图,并执行反向传播。当一个Epoch的样本(也就是训练集)数量太过庞大的时候,进行一次训练可能会消耗过多的时间,并且每次训练都使用训练集的全部数据是不必要的。人工神经网络(Artificial Neural Network,ANN)也简称为神经网络(NN),它是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型。原创 2024-03-29 10:09:03 · 681 阅读 · 0 评论