自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(82)
  • 资源 (2)
  • 收藏
  • 关注

原创 29. 深度学习中的损失函数及其数学性质详解

在深度学习中,优化算法的研究对象是损失函数。损失函数的数学性质对最优化求解过程至关重要。本文将详细介绍深度学习中的损失函数应具备的特性,帮助大家在后续的学习中避免概念上的误解。

2024-06-27 12:00:00 303

原创 28. 深度学习中的损失函数:起源、分类及统一理解

通过从概率分布和参数估计的角度重新梳理损失函数的定义,我们可以更高效地理解和应用各种损失函数及其变体。最大似然估计、最大后验估计和贝叶斯估计提供了统一的框架,使我们能够更系统地看待损失函数及其在机器学习和深度学习中的应用。希望这篇文章能帮助大家在学习和应用损失函数时,从更高的角度和更深的层次理解其精髓。随着对这些概念的深入理解,我们可以更灵活地选择和设计适合具体问题的损失函数,从而提升模型的性能和泛化能力。加油!

2024-06-26 12:00:00 727

原创 27. 深度学习中的优化算法和最优化理论

优化算法是深度学习模型训练中的核心工具,两者有密切的联系但也有显著的区别。最优化理论关注的是训练误差,而深度学习关注的是泛化误差。深度学习通过最小化经验风险来尽量减少泛化误差。优化过程中面临的挑战包括病态问题、局部最小值、鞍点、悬崖和长期依赖问题,这些问题需要通过不同的优化算法和策略来解决。深度学习的优化过程复杂多变,需要在实际应用中不断积累经验,调整策略,才能达到理想的优化效果。希望这篇文章能帮助你更好地理解深度学习中的优化算法及其面临的挑战。如果有任何问题或需要进一步探讨,欢迎留言交流。

2024-06-25 23:30:00 391

原创 使用搜索引擎--下载压缩软件

下载压缩软件

2024-06-18 13:56:48 124

原创 26.模型文件的读写

您已经很好地概述了PyTorch中模型保存和加载的几种方法。下面我将用代码示例来详细解释这些方法,并给出一些建议。

2024-06-17 12:00:00 184

原创 25.梯度消失和梯度爆炸

梯度消失指的是在训练深层神经网络时,由于链式法则的连乘效应,当网络层数过深时,梯度在反向传播过程中会逐渐减小到接近于0,导致深层网络的权重无法得到有效的更新。

2024-06-16 12:00:00 1935

原创 24.Dropout代码实现

在深度学习中,过拟合是一个常见的问题。为了解决这个问题,研究者们提出了许多技术,其中Dropout是一种非常有效的方法。Dropout通过在训练过程中随机将网络中的神经元“关闭”或“丢弃”,来防止模型对训练数据的过度拟合。在这个例子中,我们使用了简单的线性数据来模拟回归问题,并且使用了MSE(均方误差)作为损失函数。在训练过程中,我们分别训练了两个模型,一个没有使用Dropout,另一个在每个隐藏层后使用了Dropout。最后,我们通过绘制训练数据和模型预测的结果来可视化两个模型的性能。

2024-06-14 12:00:00 111

原创 23.Dropout

在深度学习的训练过程中,过拟合是一个常见的问题。为了解决这个问题,研究者们提出了多种正则化技术,其中Dropout技术因其简单而有效的特点,得到了广泛的应用。本文将对Dropout技术的工作原理、主要优点、潜在缺点以及应用场景进行详细的解析。

2024-06-13 12:00:00 1727

原创 22.正则化

在机器学习和深度学习的领域中,正则化技术是一种至关重要的策略,用于防止模型过拟合并提高模型的泛化能力。本文将详细介绍L1正则化、L2正则化以及它们之间的区别,同时还会探讨与L2正则化密切相关的权重衰减(Weight Decay)技术。

2024-06-12 12:00:00 904

原创 21.过拟合和欠拟合示例

在机器学习和深度学习中,过拟合和欠拟合是两个非常重要的概念。过拟合指的是模型在训练数据上表现很好,但在新的测试数据上效果变差的情况。欠拟合则是指模型无法很好地拟合训练数据的情况。这两种情况都会导致模型无法很好地泛化,影响最终的预测和应用效果。为了帮助大家更好地理解过拟合和欠拟合的概念及其应对方法,我将通过一个基于PyTorch的代码示例来演示这两种情况的具体表现。我们将生成一个抛物线数据集,并定义三种不同复杂度的模型,分别对应欠拟合、正常拟合和过拟合的情况。

2024-06-04 18:00:00 695

原创 20.过拟合欠拟合应对策略

过拟合是指模型在训练集上表现良好,但在验证集或测试集上性能较差的现象。这通常是因为模型复杂度过高,导致对训练数据中的噪声或异常值也进行了学习,从而缺乏对新数据的泛化能力。过拟合的表现可能包括模型在训练集上的误差很低,但在验证集上的误差却很高。过拟合和欠拟合是深度学习和机器学习中常见的问题。为了获得良好的模型性能,我们需要从数据、模型和训练策略三个方面入手,采取合适的应对策略。

2024-05-31 12:00:00 632

原创 19.训练的常见问题

它们直接影响到模型的泛化能力,即模型在未见过的数据上的表现。过拟合和欠拟合是深度学习中常见的问题,它们直接影响到模型的泛化能力和实际应用效果。这通常是因为模型对训练数据进行了过度的拟合,学习了数据中的噪声和细节,而未能捕捉到数据的本质规律。因此,当面对新的、未见过的数据时,模型的表现就会大打折扣。过拟合的原因主要是模型复杂度过高。在神经网络中,这可以通过增加网络的层数、神经元的数量或使用更复杂的模型结构来实现。因此,在实际应用中,我们需要找到一个合适的模型复杂度平衡点,使得模型既不过于简单也不过于复杂。

2024-05-30 15:30:00 315

原创 18.多分类问题代码实现

对于多分类问题,我们通常使用交叉熵损失函数(CrossEntropyLoss)。在PyTorch中,结合了LogSoftmax和NLLLoss,所以我们不需要在模型输出时显式使用LogSoftmax。对于优化器,我们选择随机梯度下降(SGD)。# 定义损失函数和优化器本文介绍了如何使用PyTorch框架来构建和训练一个用于多分类问题的神经网络模型。我们以MNIST手写数字数据集为例,展示了从数据加载和预处理、模型定义、损失函数和优化器选择,到模型训练和评估的整个流程。

2024-05-27 12:00:00 320

原创 17.分类问题

多分类问题的关键在于将输入数据映射到正确的类别标签上,这通常通过训练一个能够输出类别概率的模型来实现。Softmax 函数在模型输出层使用,用于将模型的原始输出转换为概率分布。对数损失函数和交叉熵损失函数用于衡量模型预测与真实标签之间的差异,并指导模型参数的优化。在深度学习中,通过选择合适的模型结构、激活函数和损失函数,可以有效地解决多分类问题。同时,使用优化算法(如梯度下降)来最小化损失函数,从而得到最优的模型参数。

2024-05-26 12:00:00 1006

原创 16.线性回归代码实现

本文将介绍线性回归的基本概念,并通过Python和PyTorch库来实操线性回归模型,深入理解其训练和预测过程。

2024-05-25 13:30:00 268

原创 15.回归问题

回归问题是机器学习领域中的核心问题之一,它旨在通过拟合数据点来建立数学模型,以预测因变量的值。回归问题不仅广泛应用于金融、医疗、工程等领域,也是数据分析和机器学习算法研究的重要基础。本文将深入探讨回归问题的基本概念、数学原理、常用方法以及实践应用,并通过数学公式和代码示例进行说明。

2024-05-24 12:00:00 1236

原创 14.多层感知机代码实现

对于手写数字识别,一个简单的多层感知机(MLP)或卷积神经网络(CNN)都可以工作得很好。使用PyTorch的nn.Module来定义你的网络结构。选择一个合适的损失函数(如交叉熵损失)和优化器(如Adam优化器)来训练你的模型。

2024-05-23 12:00:00 249

原创 13.前向传播和反向传播

我们将探讨神经网络中信息的流动方式,即前向传播和反向传播。

2024-05-22 12:00:00 648

原创 12.多层感知机

不同的激活函数具有不同的特性和适用场景。Sigmoid和Tanh函数在早期神经网络中广泛使用,但由于梯度消失等问题,现在更多地被ReLU及其变体所取代。ReLU函数简单高效,但在某些情况下可能导致“神经元死亡”问题,而Leaky ReLU则通过允许小的负斜率来缓解这个问题。Softmax函数则是多分类问题中常用的输出层激活函数。在选择激活函数时,需要根据具体问题和需求进行权衡和选择。在输出值不是0或1的情况下,激活函数的选择取决于具体的应用场景和问题需求。

2024-05-21 12:00:00 546

原创 11.神经网络原理

神经网络是一种模拟人脑神经元工作方式的计算模型,它由多个神经元(或称为节点)组成,这些神经元通过连接(或称为权重)相互关联。神经网络可以分为输入层、隐藏层和输出层。输入层接收外部数据,隐藏层对数据进行处理,输出层则产生最终的预测结果。神经网络的复杂性取决于其深度(层数)和宽度(每层神经元的数量)。神经网络的学习过程是通过调整权重(w)和偏置项(b)来最小化预测值与实际值之间的误差。这通常通过反向传播(Backpropagation)算法来实现,该算法利用链式法则计算梯度,并更新网络中的权重和偏置项。

2024-05-20 19:00:00 800

原创 10.PyTorch安装

详细介绍了PyTorch在Windows操作系统上的安装过程。通过Anaconda创建Conda环境并使用PyTorch官网提供的安装命令,我们可以轻松地安装PyTorch及其相关依赖项。安装完成后,我们验证了PyTorch的版本、检查了CUDA的可用性,并创建了一个随机张量来测试PyTorch的功能。如果一切顺利,那么您现在已经成功安装了PyTorch,并可以使用它进行深度学习和其他计算任务了。

2024-05-20 09:00:00 526

原创 9.Jubyter Notebook

Jupyter Notebook 是一个开源的Web应用程序,它允许开发者方便地创建和共享包含实时代码、方程、可视化和解释性文本的文档。Jupyter Notebook 的界面是交互式的,用户可以在其中编写和运行代码块,即时查看结果,并轻松地对代码和文档进行迭代。

2024-05-19 12:00:00 482

原创 8.conda命令

Conda 是一个流行的包和环境管理工具,特别适用于 Python 数据的处理和科学计算。它允许用户轻松地安装、更新、删除和管理不同版本的包及其依赖项,同时还支持创建和管理多个隔离的 Python 环境。

2024-05-19 09:00:00 251

原创 7.CUDA和Anaconda

在弹出菜单中选择“环境变量”,在系统变量中找到“Path”,双击它,在弹出的对话框中选择“新建”,然后将Anaconda的安装路径以及Anaconda目录下的Scripts路径都添加到Path环境目录中。然后,不要随意下载版本安装,需要根据自己电脑显卡驱动的版本安装相应支持的CUDA版本,否则可能会出现不兼容的情况。在打开的面板里点击左下角的“系统信息”,在弹出的系统信息界面里,你可以看到驱动程序版本信息。比如,如果你的显卡驱动是472.12版本,那么最高能安装的CUDA版本可能是11.4.0。

2024-05-18 09:00:00 459

原创 5.微积分

极限极限是微积分的基础,用于描述函数在某一点的取值趋势。导数(Derivative)导数描述了函数在某一点附近的变化率,即函数值随自变量变化的快慢程度。对于一元函数 f(x),其导数 f′(x) 定义为 limΔx→0​Δxf(x+Δx)−f(x)​。微分(Differential)微分描述了函数值随自变量的微小变化而产生的变化量。在一元函数中,微分可以表示为 dy=f′(x)⋅dx,其中 dy 是函数值的变化量,dx 是自变量的变化量,f′(x) 是该点的导数。

2024-05-17 09:00:00 626

原创 6.概率论

贝叶斯定理和极大似然估计是统计学和机器学习中非常重要的概念。贝叶斯定理用于根据已知信息更新事件的概率,而极大似然估计则用于估计模型参数,使得观测到的数据出现的概率最大。在深度学习中,许多模型都是基于极大似然估计的思想来训练的。同时,概率密度函数在描述连续随机变量的概率分布时起着关键作用。

2024-05-16 14:30:28 764

原创 4.线性代数

标量(Scaler):没有方向或大小的一维数据,可以理解为0维张量。向量(Vector):具有大小和方向的量,通常表示为有序数列。在线性代数中,向量可以被看作是一维数组,也可以看作是1维张量。矩阵(Matrix):二维数组,其中每个元素都可以是标量、向量或其他数据。矩阵表示线性变换,也可以看作是2维张量。张量(Tensor):多维数组,可以看作是矩阵的扩展。张量是N维张量,当N > 2时,它不再具有直观的几何解释,但可以表示高位空间中的复杂数据关系。

2024-05-16 08:00:00 1061

原创 3.深度学习课程--技术栈

在代码编辑器方面,我们推荐使用Jupyter Notebook,它是一款基于网页的交互式编辑器,支持Markdown语法和LaTeX数学公式编写,方便边学习边做笔记,并且易于与他人共享。在数据集方面,我们将使用一系列主流和具有代表性的数据集,如MNIST、Flower102、20 News Group等,以及在特定章节中使用的金融数据和NLP竞赛数据集。在后续章节中,我们将详细介绍CUDA、Anaconda等深度学习环境的配置,并提供Jupyter Notebook和PyTorch的安装教程。

2024-05-15 16:00:00 217 1

原创 2.深度学习介绍

深度学习是机器学习的一个子集,它基于人工神经网络(ANN),特别是深度神经网络(DNN),通过模拟人脑神经元之间的连接和信息处理方式,来自动地学习数据中的特征表示。深度学习的“深度”主要体现在网络结构的复杂性上,即它包含多个隐藏层,这些层可以学习到从低级到高级的不同层次的特征表示。通过将不同模态的数据进行融合,可以获得更丰富的信息,从而提高任务的性能。深度学习在自动驾驶、生物信息学、医学诊断、金融预测、推荐系统以及农业等领域的应用,都充分展示了深度学习的广泛性和实用性。

2024-05-15 14:05:22 570

原创 深度学习课程

在过去的十年里,深度学习在自然语言处理、计算机视觉和语音识别等领域取得了巨大成功,成为人工智能的热门领域。为了帮助学习者快速掌握深度学习,我们开发了系统的专业课程。选择正确的课程和学习伙伴是成功的关键。我们希望通过这门课程,帮助你快速突破学习瓶颈,走向人工智能的发展之路。无论你是在校学生、职场人士还是专业人士,只要对深度学习感兴趣,这门课程都适合你。

2024-05-15 10:38:46 204

原创 在线抠图网站

抠图网站推荐

2024-05-13 16:00:04 192

原创 s3prl

Self-SupervisedSpeechPre-training andRepresentationLearning.自监督语音预训练模型3种使用方法1.pretrain预训练上游模型:Mockingjay, Audio ALBERT and TERA.1.1 Readme文件预训练新的上游模型,需要很高的GPU第一步:准备数据(1)下载LibriSpeech数据集,解压成下面的形式(2)生成meta data 目录,加速训练python3 prepro...

2021-11-27 15:31:46 3019 2

原创 Speechbrain 基本分类模型

深度学习的一个关键组成部分是多次迭代数据集并执行参数更新。这个过程有时被称为“训练循环”,这个循环通常有很多阶段。SpeechBrain 提供了一个方便的框架来组织训练循环,以称为“大脑”类的类的形式,在speechbrain/core.py.在每个配方中,我们对此类进行子类化并覆盖默认实现不执行该特定配方所需的方法。此类的主要方法是fit()方法,它接受一组数据并对其进行多次迭代并对模型执行更新。为了使用fit(),必须在子类中至少定义两个方法:compute_forward()和compute...

2021-10-11 17:08:08 1096

原创 Speechbrain 超参数文件

任何深度学习管道的一个重要部分是超参数和其他元数据的定义。这些数据与深度学习算法一起控制管道的各个方面,例如模型架构、训练和解码。在 SpeechBrain,我们认为超参数和学习算法之间的区别应该在我们工具包的结构中很明显,所以我们分成两个主要文件:train.py和train.yaml.该train.yaml文件采用 SpeechBrain 开发的格式,我们称之为“HyperPyYAML”。我们选择扩展 YAML,因为它是一种高度可读的数据序列化格式。通过扩展一个已经有用的格式,我们能够创建一个扩展的

2021-10-11 16:07:40 825

原创 speechbrain用于语音分类

在本教程中,我们将重点介绍TDNN分类器 (xvector) 和一个名为ECAPA-TDNN 的最新模型,该模型在说话人验证和分类方面表现出令人印象深刻的性能。数据:训练将使用一个名为mini-librispeech的小型开源数据集完成,该数据集仅包含几个小时的训练数据。代码:在本教程中,我们将参考speechbrain/templates/speaker_id.需要准备三个步骤: 准备数据。此步骤的目标是创建数据清单文件(CSV 或 JSON 格式)。数据清单文件告诉 S...

2021-10-10 23:29:52 6813

原创 音频预训练模型 Audio and Speech Pre-trained Models

1. 什么是预训练的模型?预训练模型是其他人为解决类似问题而创建的模型。我们可以以其他问题训练的模型为起点,而不是从零开始构建模型来解决类似的问题。预训练模型在应用程序中可能不 是100% 准确。2. 框架2.1 tensorflow模型:Wavenet2.2 keras2.3 pytorch2.4 MXNet2.5 Caffe...

2021-09-25 00:49:32 4733

原创 jupyter notebook 修改local目录

1.打开jupyter的运行环境2.输入jupyter --config -dir打开上面显示的路径3.打开jupyter_notebook_config.py文件4.定位到下面这一行,修改路径修改完,保存就行5.返回jupyter的运行环境,输入jupyter notebooklocal目录就更换成功了。...

2021-07-27 16:11:07 514

原创 2014年 VGGNet

目录研究背景研究成果摘要1.介绍2 卷积神经网络的设置2.1 架构2.2 设置2.3 讨论使用3*3卷积核的优点:1*1卷积核的作用3 分类框架3.1 训练3.2 测试3.3 实现细节4 分类实验4.1 单一尺寸测试数据评估结论:4.2 多尺寸测试数据评估结论:4.3 多裁剪评估结论:4.4 卷积网络融合结论:4.5 与业界最好结果的比较结论:5 结论贡献研究背景自从2012年AlexNet将

2021-07-16 15:32:39 366 1

原创 2012年 AlexNet

目录背景介绍简介研究意义图像分类问题简介技术发展趋势Relu:dropout训练阶段softmax与交叉熵测试阶段衡量标准背景介绍简介AlexNet是在2012年被发表的一个经典之作,并在当年取得了ImageNet最好成绩论文全称为《ImageNet Classification with Deep Convolutional Neural Network》,从论文名字可以看出此网络主要用于图像分类任务,为什么叫它AlexNet网络,因为论文第...

2021-07-16 00:32:14 1404 5

原创 2015年Nature deep learning综述

论文意义人工智能领域三位泰斗,总览深度学习理论、模型!展开人工智能壮丽画卷,把握深度学习的前世今生!探究深度学习最重要的算法和理论!概念深度学习允许由多个处理层组成的计算模型来学习具有多个抽象级别的数据表示,这些方法极大地改善了语音识别,视觉对象识别,物体检测以及药物发现和基因组学等许多其他领域的最新技术。原理深度学习通过使用反向传播算法来指示机器应如何更改其内部参数(用于从前一层中的表示计算每个层中的表示)来发现大数据集中的复杂结构。应用深度卷积网络CNN在处理图像,视频,..

2021-07-15 23:34:36 1031 4

chatgpt Stable Diffusion 本地部署详细教程

虽然MJ和SD都可以生成图像,但是为什么我们要考虑使用本地SD部署呢?原因其实很简单:首先,本地部署的使用成本更低,且更加高效;其次,它的功能更强大,更具专业性。然而,本地部署也存在一些缺点。一方面,它对硬件有一定的要求,特别是显卡。另一方面,使用上手需要经过一定的学习,才能熟悉使用。如果你平时只使用在线平台进行AI绘图,那么你只能算是入门级;如果你想达到专业级别,能够熟练地完成绘图任务,甚至商业化应用,那么本地部署就是不可或缺的。接下来教你怎么一步一步部署Stable Diffusion WebUI,让你的电脑拥有专业级AI绘图功能。

2024-05-13

ChromeSetup.exe

google的安装程序

2021-07-04

数据库登入界面完整

ADO:使用ACCESS数据库连接VC++工程,可以添加用户名,密码,记住用户名和密码,添加账号,修改密码,注销账号

2018-09-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除