深度学习
文章平均质量分 89
E寻数据
擅长数据分析、机器学习、深度学习相关技术。
展开
-
在 Python 和 C++ 环境下安装和使用 ONNX Runtime
对于 GPU 版本的 ONNX Runtime,需要安装 CUDA 和 cuDNN。请检查 CUDA 执行提供程序的要求以获取兼容版本的 CUDA 和 cuDNN。通过上述步骤和示例代码,您可以在 Python 和 C++ 环境下安装并使用 ONNX Runtime 进行模型推理。《windows端可以用 vs编辑器配置相应的头文件、库文件》《这部分可以去B站有很多教学视频讲的更详细》原创 2024-08-03 10:58:57 · 680 阅读 · 0 评论 -
ONNXRuntime: 深度学习模型入门学习简介
ONNX Runtime 是一个跨平台的机器学习模型加速器,具有灵活的接口,可以集成硬件特定的库。无论是 PyTorch、Tensorflow/Keras、TFLite 还是 scikit-learn 等框架训练的模型,ONNX Runtime 都可以高效运行。原创 2024-08-03 10:41:53 · 936 阅读 · 0 评论 -
FasterRCNN入门案例水稻图像目标检测新手友好入门案例
import pandas as pd # 用于数据处理和分析的库import numpy as np # 数值计算库,提供高效的多维数组操作import cv2 # OpenCV库,用于进行图像处理和计算机视觉任务import os # 提供与操作系统交互的功能,如文件路径操作import re # 用于执行正则表达式,进行字符串匹配和处理from PIL import Image # 用于图像打开、处理和保存。原创 2024-05-31 17:55:54 · 1253 阅读 · 0 评论 -
kaggle使用深度学习的logistic回归方法实现疟疾细胞图像分类
import os这段代码是一个典型的Python导入语句集,涵盖了在进行机器学习和图像处理项目中常用的库和模块。numpy (np: 一个强大的数学库,提供高效的多维数组对象和大量操作这些数组的函数,是科学计算中广泛使用的工具。pandas (pd: 提供高性能、易用的数据结构和数据分析工具,非常适合用来处理结构化数据。os: 用于与操作系统进行交互,比如读取文件路径、管理目录。plt和seaborn (snsmatplotlib是Python中的一个绘图库,非常适合创建静态、动态和交互式的可视化。原创 2024-04-22 16:57:33 · 877 阅读 · 0 评论 -
太卷了,Meta最强开源大模型Llama 3开源了,不要错过
在AI的快速发展中,大型语言模型如雨后春笋般涌现,它们正在重塑我们处理数据和生成语言的方式。Meta Llama 3 是最新一代的语言模型,它不仅在技术上有显著的进步,更以其易于获取和使用性质,使得个人和企业都能够利用这些先进工具来推动创新。一旦您的请求获得批准,您将通过电子邮件收到一个包含下载链接的邮件。这是一个自动化的过程,旨在减少用户操作的复杂性,确保下载过程的顺利进行。这条命令将安装所有必要的 Python 依赖,并将您的项目目录设置为 Python 模块,这样您就可以从任何地方调用它。原创 2024-04-19 14:56:43 · 534 阅读 · 0 评论 -
使用huggingface快速方便的实现一个扩散模型简介
在今天的数字化时代,生成式人工智能(AI)已经成为创意和技术创新的前沿。从生成逼真的图像和音频到模拟复杂的分子3D结构,AI的能力正在以前所未有的速度扩展。在这样的背景下,Hugging Face的 Diffusers库呈现为那些希望探索和实现扩散模型能力的先锋和实践者的理想选择。Diffusers是一个全面的、最先进的预训练扩散模型库,专为生成图像、音频以及分子的3D结构而设计。这个库不仅仅是一个简单的推理工具箱,它还提供了丰富的资源和支持,让用户能够训练和定制自己的扩散模型。原创 2024-03-11 13:39:27 · 563 阅读 · 0 评论 -
huggingface实现Autoformer时间序列深度分解与自相关预测模型
Autoformer是一种用于长期时间序列预测的模型,由Haixu Wu, Jiehui Xu, Jianmin Wang, Mingsheng Long提出。这种模型增强了传统的Transformer架构,使其成为一个深度分解架构,可以在预测过程中逐步分解趋势和季节性组件。在实际应用中,如极端天气早期预警和长期能源消费规划,扩展预测时间是一个关键需求。此论文研究了时间序列的长期预测问题。以前基于Transformer的模型采用各种自注意力机制来发现长期依赖关系。原创 2024-03-10 11:01:51 · 1125 阅读 · 0 评论 -
音频分类革命:如何用Hugging Face实现前沿的音频频谱图变换器
音频频谱图变换器(Audio Spectrogram Transformer,简称AST)是由Yuan Gong, Yu-An Chung, James Glass提出的一个模型。它通过将音频转换为图像(即频谱图)的方式,使用视觉变换器(Vision Transformer)来处理音频数据,并在音频分类任务上取得了最先进的结果。在过去的十年里,卷积神经网络(CNN)被广泛应用于端到端的音频分类模型中,这类模型旨在学习从音频频谱图到对应标签的直接映射。原创 2024-03-10 10:45:49 · 1223 阅读 · 0 评论 -
入门了解huggingface实现ALBERT模型相关任务--Token Classification
是基于ALBERT模型的令牌分类实现,专门用于处理如命名实体识别(NER)等令牌级别的分类任务。这个类继承自,并且是PyTorch的子类,这意味着它可以像任何常规的PyTorch模块一样使用。原创 2024-03-08 15:07:37 · 1428 阅读 · 0 评论 -
入门了解使用huggingface实现ALBERT模型相关参数
在这篇博客中,我们将深入探讨使用库来实现和应用ALBERT模型时的关键参数和配置。库是由Hugging Face提供的,支持包括ALBERT在内的多种预训练语言模型,使得自然语言处理(NLP)任务的实现变得更加便捷和高效。我们将重点讨论以及的使用,这些组件是使用ALBERT模型时的核心。原创 2024-03-08 14:42:44 · 981 阅读 · 0 评论 -
入门了解使用huggingface实现ALBERT模型相关任务--文本分类相关任务
在近年来,自然语言处理(NLP)领域经历了一次重大变革,这主要得益于预训练语言模型的出现和发展。其中,BERT(Bidirectional Encoder Representations from Transformers)无疑是最具影响力的模型之一,它通过深度双向表示,极大地提高了多项NLP任务的性能。然而,BERT模型的一个主要挑战在于其巨大的模型规模,这导致了高昂的计算资源消耗和存储需求,限制了其在资源受限环境下的应用。原创 2024-03-08 14:21:33 · 1220 阅读 · 0 评论 -
NLP神器Transformers入门简单概述
🤗 Transformers 提供了易于使用的 API 和工具,使得下载和训练前沿的预训练模型变得轻而易举。下表展示了库对每种模型的当前支持情况,包括它们是否有 Python 分词器(称为“慢”分词器)、由 🤗 Tokenizers 库支持的“快”分词器、以及它们在 Jax(通过 Flax)、PyTorch 和/或 TensorFlow 中的支持情况。无论你是研究人员、开发者还是AI爱好者,🤗 Transformers 都能帮助你推动项目的进展,实现惊人的成果。原创 2024-03-07 12:06:00 · 1237 阅读 · 0 评论 -
HuggingFace Hub系列:推动NLP前进的协作平台
在当今快速发展的机器学习(ML)领域,没有任何一个公司,包括科技巨头,能够独立“解决AI”。这是一个需要通过共享知识和资源在社区中协作来实现的目标。正是基于这个信念,Hugging Face Hub应运而生,它是一个集成了超过120,000个模型、20,000个数据集和50,000个演示的平台,旨在促进ML工作流程中的协作与共享。Hugging Face Hub提供了一个中央位置,任何人都可以在这里分享、探索、发现和实验开源机器学习。原创 2024-03-07 10:11:14 · 1024 阅读 · 0 评论 -
使用yolo-seg模型实现自定义自动动态抠图
在这篇博客中,我们将探索如何使用YOLO-SEG模型来自动进行图像中对象的抠图。YOLO-SEG是一种结合了YOLO(You Only Look Once)快速目标检测能力和图像分割的深度学习模型,能够在单个网络中同时实现目标检测和像素级分割。原创 2024-02-24 16:05:15 · 1519 阅读 · 11 评论 -
大白话理解大语言模型预训练和微调
它结合了自回归模型的严密性和生成式模型的创新性,能够在没有针对性训练数据的情况下,通过少量的提示(Few-Shot Learning)或者没有提示(Zero-Shot Learning)来生成合理的文本。尽管生成式模型在早期不如判别模型那样流行,但随着计算能力的增强和数据集的扩大,生成式模型展示了其强大的潜力。生成式模型,如其名,不仅预测下一个词的概率,还能生成新的词汇。这种模型在预测下一个词时引入了随机性,它不会简单地选择最可能的词,而是从可能的词汇分布中进行抽样,增加了语言的多样性和创造性。原创 2024-01-30 09:59:19 · 771 阅读 · 0 评论 -
大模型技术关于硬件和操作系统的要求
与Windows或MacOS相比,Linux在大模型推理和微调方面提供了更完善的功能支持,并且是工业场景中最常使用的操作系统。:适用于入门级或中级的大模型应用,推荐的显卡型号为NVIDIA RTX 3090和2080ti,具体选择取决于所需的显存和预算。:对于大模型的工业级实践,尤其是全量微调,建议使用高端的NVIDIA A100 80G显卡,并且至少需要4张卡以满足高性能需求。我们还提供了具体的GPU硬件要求和成本估算,包括不同量化级别下的推理和高效微调时的GPU显存占用,以及相应的显卡配置和成本。原创 2024-01-30 09:41:12 · 1287 阅读 · 0 评论 -
OpenAI平台:引领人工智能的创新与应用
这些API能够在文本生成、语言理解、图像创作等多个领域提供高度智能化的支持,同时其易于集成的特性使得各种规模的企业和开发者都能快速将其应用到实际场景中。作为一个致力于确保人工智能的安全和广泛受益的组织,OpenAI通过其平台提供了一系列强大的工具和API,这些工具和API正在重塑我们与技术的互动方式。通过持续的研究和政策制定,OpenAI致力于确保其技术的负责任使用,以及减轻可能的负面影响。总之,OpenAI不仅是技术创新的代名词,更是对人工智能未来的深思熟虑和负责任的态度的体现。原创 2024-01-29 11:38:34 · 530 阅读 · 0 评论 -
YOLOv8加入AIFI模块,附带项目源码链接
YOLOv8" 是一个新一代的对象检测框架,属于YOLO(You Only Look Once)系列的最新版本。YOLOv8中提及的AIFI(Attention-based Intrascale Feature Interaction)模块是一种用于增强对象检测性能的机制,它是对YOLO架构中的SPPF(Spatial Pyramid Pooling-Fast)模块的替代或改进。: 这是一种快速且准确的对象检测方法,它只需单次查看("You Only Look Once")即可检测图像中的对象。原创 2024-01-22 12:03:30 · 1445 阅读 · 0 评论 -
超越yolo系列的RT-DETR目标检测原理与简介
T-DETR是第一个实时端到端目标检测器。具体而言,我们设计了一个高效的混合编码器,通过解耦尺度内交互和跨尺度融合来高效处理多尺度特征,并提出了IoU感知的查询选择机制,以优化解码器查询的初始化。此外,RT-DETR支持通过使用不同的解码器层来灵活调整推理速度,而不需要重新训练,这有助于实时目标检测器的实际应用。原创 2024-01-20 10:39:59 · 1420 阅读 · 0 评论 -
PyTorch视觉工具箱:图像变换与上采样技术详解(2)
在这篇博客中,我们探讨了PyTorch中几个关键的视觉函数,它们在进行图像和视频处理时扮演着重要的角色。和用于上采样操作,通过最近邻和双线性插值方法来增加输入张量的空间尺寸;用于更复杂的空间变换,允许根据提供的网格对输入张量进行采样和变换;生成用于空间变换的采样网格,通常与结合使用来构建空间变换网络。所有这些函数都支持多种插值和填充模式,提供了对图像的高级操作能力。原创 2024-01-19 16:20:49 · 986 阅读 · 0 评论 -
PyTorch视觉工具箱:图像变换与上采样技术详解(1)
这些函数的使用依赖于精确的参数设置和对应用场景的理解。每个函数都有其独特的应用范围和参数要求,如填充大小、缩放因子、插值模式等。在使用这些函数时,重要的是要注意它们在不同模式和参数下的行为,以及它们如何影响最终的输出结果。这些视觉函数为处理图像和视频数据提供了灵活而强大的手段,从基本的像素操作到复杂的空间变换,都是现代计算机视觉和深度学习应用不可或缺的部分。原创 2024-01-19 15:51:31 · 1329 阅读 · 0 评论 -
PyTorch各种损失函数解析:深度学习模型优化的关键(2)
本文提供了对 PyTorch 中多种损失函数(Loss functions)的详细解析,包括其用途、使用方法、重要注意事项和数学理论公式。这些损失函数涵盖了从回归问题(如mse_loss和huber_loss),多标签分类(如和),到复杂的相似度学习(如和)等多种机器学习任务。每种损失函数都有其特定的应用场景和优化目标,例如mse_loss用于计算预测值和真实值之间的均方误差,适合于回归任务;而则用于学习数据点之间的相似度,常用于特征嵌入和相似度学习。原创 2024-01-18 16:06:49 · 1370 阅读 · 0 评论 -
PyTorch各种损失函数解析:深度学习模型优化的关键(1)
本博客介绍了PyTorch中多种损失函数的应用和原理,包括二元交叉熵损失(BCE和BCE with logits)、泊松负对数似然损失、余弦嵌入损失、交叉熵损失、连接主义时序分类(CTC)损失、高斯负对数似然损失、铰链嵌入损失、Kullback-Leibler(KL)散度损失和L1损失。每种损失函数都有其特定的应用场景,从简单的二分类问题到复杂的序列对齐和概率分布比较,这些损失函数在深度学习模型的训练过程中发挥着关键作用。原创 2024-01-18 10:35:44 · 1858 阅读 · 0 评论 -
PyTorch 中的距离函数深度解析:掌握向量间的距离和相似度计算
和pdist。这些函数在深度学习和机器学习中非常重要,用于计算向量之间的距离和相似度,从而支持各种算法如聚类、k-最近邻、特征相似度度量等。每个函数都有其特定的应用场景和数学原理。计算两组向量间的成对欧几里得距离,计算两个张量间的余弦相似度,而pdist则计算一个张量内各行向量间的 p 范数距离。通过这些函数,我们能有效地分析和处理数据,特别是在高维空间中。原创 2024-01-18 09:28:45 · 2453 阅读 · 0 评论 -
PyTorch 稀疏函数解析:embedding 、one_hot详解
本篇博客探讨了 PyTorch 框架中几个关键的稀疏函数,包括embedding和one_hot。这些函数在处理自然语言处理(NLP)任务和其他需要高效、灵活处理大量类别或序列数据的应用中至关重要。embedding函数用于从预定义的嵌入矩阵中检索指定索引的嵌入向量,支持自定义嵌入矩阵大小、填充索引和范数限制。提供了一种高效的方法来处理变长序列,通过聚合(如求和、均值或最大值)嵌入向量,而无需单独处理每个序列。one_hot。原创 2024-01-17 11:20:41 · 1691 阅读 · 0 评论 -
Pytorch各种Dropout层应用于详解
本文解析了 PyTorch 框架中的几种关键的 dropout 函数,包括dropoutdropout1ddropout2d和dropout3d。每种方法都针对不同的数据维度和网络特点,提供了有效的过拟合防止和模型正则化策略。原创 2024-01-17 11:01:15 · 2626 阅读 · 0 评论 -
掌握 torch.nn.functional 中的 Linear 和 Bilinear 函数
介绍了这两个函数的基本用途、参数详解、使用技巧,还通过具体的代码示例展示了如何在实践中应用这些函数。linear函数用于实现基本的线性变换,适用于神经网络的构建和特征变换;而bilinear函数则用于处理两个输入数据的交互,特别适合于更复杂的场景,如图像处理或推荐系统。原创 2024-01-17 09:31:55 · 2184 阅读 · 0 评论 -
深入理解 PyTorch 激活函数:从基础到高效实用技巧(4)
这个公式表示输入值的指数减去其负指数,然后除以这两个指数的和。结果是一个在 -1 和 1 之间的输出,提供了一个平滑的非线性变换。这个公式表示计算输入值的负指数,加 1 后取其倒数。结果是一个在 0 和 1 之间的输出,提供了平滑的非线性变换。如果x ≤ -3,则。如果x ≥ +3,则。否则,。这个公式将输入值分为三个区域:小于等于 -3 的区域输出为 0,大于等于 +3 的区域输出为 1,介于这两者之间的区域输出为。其中σ(x)是逻辑 Sigmoid 函数。这意味着每个输入值x。原创 2024-01-16 14:58:09 · 1427 阅读 · 0 评论 -
深入理解 PyTorch 激活函数:从基础到高效实用技巧(3)
在数学上,这相当于取 Sigmoid 函数的输出并对其应用自然对数。对数 Sigmoid 函数平滑地将每个元素映射到负无穷大到零的区间,提供了一种平滑的方式来处理接近于0和1的极端值。如果,则保持x不变。如果,则将x设为 0。这种方法通过硬阈值将输入张量中绝对值较小的元素设置为零,而保持其它元素不变。这个公式表示每个元素的值减去其双曲正切值。函数的输出是输入值和其双曲正切的差值,这种设计在输入值较小(接近零)时,输出接近零,而在输入值较大时,输出趋于饱和。原创 2024-01-16 10:27:45 · 1526 阅读 · 0 评论 -
深入理解 PyTorch 激活函数:从基础到高效实用技巧(2)
α(alpha)是一个预定的常数,约为 1.6732632423543772848170429916717。scale是另一个预定的常数,约为 1.0507009873554804934193349852946。exp(x)表示x的指数函数 e^x(e 是自然对数的底数)。函数中的max(0, x)和组合保证了当 x 为负时有一个平滑的负饱和状态,而 x 为正时的行为类似于线性函数。这里的exp(x / α)表示x / α的指数函数 e^(x/α)。对于正值输入,CELU 函数的行为类似于线性函数。原创 2024-01-16 09:50:43 · 1401 阅读 · 0 评论 -
深入理解 PyTorch 激活函数:从基础到高效实用技巧(1)
当 x ≤ -3,HardSwish(x) = 0当 x ≥ +3,HardSwish(x) = x否则,HardSwish(x) = x * (x + 3) / 6这意味着,如果输入 x 小于 0,输出为 0;如果输入 x 大于 6,输出为 6;否则输出为 x 本身。当 x > 0 时,ELU(x) = x当 x ≤ 0 时,ELU(x) = α * (exp(x) - 1)这个函数的目的是在保持 ReLU 正值特性的同时,为负输入值提供一个平滑的饱和转换。原创 2024-01-16 09:26:18 · 1155 阅读 · 0 评论 -
了解PyTorch中的缩放点积注意力及演示
是一个强大的PyTorch函数,用于实现缩放点积注意力机制。它通过计算查询、键和值之间的关系,为深度学习模型提供了一种有效的方式来捕获和关注重要信息。适用于各种序列处理任务,此函数特别适合于复杂的自然语言处理和计算机视觉应用。其高效的实现和可选的优化内核使其在处理大规模数据时表现卓越。原创 2024-01-11 10:02:21 · 1303 阅读 · 0 评论 -
PyTorch 各种池化层函数全览与用法演示
在 PyTorch 中,池化层函数是卷积神经网络(CNN)中的重要组成部分,用于降维、特征提取和防止过拟合。这些函数包括不同类型和维度的池化操作,如平均池化、最大池化和自适应池化,适用于处理一维、二维和三维数据。每种池化操作都有其特定的应用场景和参数设置,提供了灵活性以适应不同的深度学习需求。原创 2024-01-11 09:34:08 · 1759 阅读 · 1 评论 -
pytorch详细探索各种cnn卷积神经网络
PyTorch 的子模块提供了一系列功能强大的函数,用于实现卷积神经网络中的关键操作。这些函数涵盖从基本的卷积操作到高级数据变换技术,使其成为处理和分析图像、音频和视频数据的重要工具。这些函数的灵活性和多样性使其在深度学习领域中具有广泛的应用,如图像处理、音频分析、时间序列预测等。它们的高效实现和易用性进一步加强了 PyTorch 在科学研究和工业应用中的地位。原创 2024-01-10 10:34:08 · 1274 阅读 · 1 评论 -
nn.modules.lazy.LazyModuleMixin用法详解
是 PyTorch 中的一个混合类(mixin),它用于创建那些延迟初始化参数的模块,也就是“懒加载模块(lazy modules)”。这些模块从它们的第一次前向传播输入中推导出参数的形状。在第一次前向传播之前,它们包含,这些参数不应被访问或使用;在之后,它们包含常规的。原创 2024-01-10 09:50:17 · 454 阅读 · 0 评论 -
PyTorch: torch.nn 子模块及其在循环神经网络中的应用
本文介绍了 PyTorch 框架中torch.nn子模块的关键组成部分及其功能。这个模块提供了多种用于构建神经网络的预定义层,如全连接层、卷积层和循环神经网络层。特别强调了中的几个重要类和函数,如,它们在处理变长序列时特别有用。此外,还介绍了Flatten和Unflatten模块,这两个模块在处理多维数据时非常有用,前者将数据展平为一维,而后者则将一维数据还原为多维格式。整体上,本文提供了对 PyTorch 中重要网络构建模块的全面理解,强调了它们在实际应用中的重要性和灵活性。S_%7Bi%7D。原创 2024-01-10 09:44:05 · 1331 阅读 · 0 评论 -
torch.nn.utils.stateless.functional_call用法
是 PyTorch 中的一个函数,用于在不更改模块(如神经网络层)本身状态的情况下,暂时性地用提供的参数和缓冲区执行该模块的调用。这种方法特别适用于需要评估或测试模型在不同参数配置下的性能时,提供了一种高效、灵活的方式来进行无状态调用。该函数支持权重共享控制和严格性检查,但需要注意的是,这个 API 在 PyTorch 2.0 中已被弃用,建议使用其替代品。此功能适用于模型评估和测试,尤其是在需要频繁变更参数的场景中。原创 2024-01-09 10:30:37 · 892 阅读 · 0 评论 -
PyTorch 参数化深度解析:自定义、管理和优化模型参数
本篇博客探讨了 PyTorch 中子模块的强大功能和灵活性。它详细介绍了如何通过自定义参数化()来改变和控制模型参数的行为,提供了移除参数化()的方法以恢复模型到原始状态,并探讨了如何利用缓存机制(cached)来提高参数化参数在前向传播中的计算效率。此外,文章还解释了如何检查模型或其属性的参数化状态(),并深入了解了类在内部如何管理参数化参数。原创 2024-01-09 10:25:31 · 1635 阅读 · 0 评论 -
用pytorch给深度学习加速:正交与谱归一化技术
这篇博客探讨了PyTorch中的两种关键参数优化技术:正交参数化和谱归一化。正交参数化用于优化神经网络的权重矩阵,以保持其正交或酉性质,从而提高网络的训练稳定性和泛化能力。谱归一化则主要用于生成对抗网络(GANs),通过控制权重矩阵的谱范数来稳定判别器的训练。两种技术都是提高模型性能和训练效率的有效工具,适用于多种网络结构和应用场景。博客通过具体的代码示例,展示了如何在PyTorch中实现这些高级参数优化技术。原创 2024-01-09 09:07:45 · 2288 阅读 · 0 评论 -
零基础也可以探索 PyTorch 中的上采样与下采样技术
这篇博客深入探讨了 PyTorch 深度学习框架中的几个关键的图像上采样和下采样子模块,包括, 和。每个模块的用法、用途、关键技巧和注意事项都进行了详细的说明。和分别用于图像的超分辨率提升和降采样处理,而Upsample提供了多种上采样方法,包括最近邻和双线性插值等。和则专注于 2D 图像的最近邻和双线性上采样。原创 2024-01-08 10:45:50 · 1824 阅读 · 0 评论