自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(148)
  • 收藏
  • 关注

原创 Python使用虚拟环境解决依赖冲突

在处理多个 Python 库依赖时,遇到依赖冲突是很常见的,特别是当项目依赖的库版本相互不兼容时。要解决这些冲突,可以采用以下方式。

2024-09-20 17:54:32 367

原创 正则表达式

正则表达式(Regular Expression,简称或)是用于匹配字符串的一种模式表达式,常用于文本搜索、替换、提取等任务。下面介绍正则表达式的常用方法及其典型应用。

2024-09-18 19:26:48 990 1

原创 【评估指标】Fβ-score

Fβ-score 是一种综合考量精确率(precision)和召回率(recall)的分类评估指标。

2024-09-10 12:06:37 298

原创 【数据集处理】Feather 文件

Feather 文件格式是一种高效、跨语言的数据存储格式,特别适用于需要快速读写的数据科学和数据分析工作流。它的列存储格式使得它在处理大规模数据时特别有用。通过使用pandas库的to_feather和方法,可以方便地将数据保存为 Feather 文件并读取。

2024-08-27 19:15:20 293

原创 【模型】Temporal Fusion Transformer (TFT) 模型

Temporal Fusion Transformer (TFT) 模型是一种专为时间序列预测设计的高级深度学习模型。它结合了神经网络的多种机制来处理时间序列数据中的复杂关系。TFT 由 Lim et al. 于 2019 年提出,旨在处理时间序列中的不确定性和多尺度的依赖关系。TFT 模型的架构结合了以下几个主要组件:输入层和嵌入层:Variable Selection Network(变量选择网络):LSTM编码器/解码器:自注意力机制(Self-Attention Mechanism):Gated R

2024-08-26 18:04:21 743

原创 【模型】VotingRegressor

是一个集成学习模型,属于 Scikit-learn 库中提供的集成方法之一。它的主要思想是通过结合多个基于不同算法的回归模型来提高预测性能。这些基础模型各自做出预测,然后会对它们的输出进行加权平均(或直接平均),最终给出一个集成的预测结果。

2024-08-16 19:30:52 347

原创 joblib、pickle库

joblib是一个 Python 库,主要用于提供高效的序列化工具以及并行计算的能力。它广泛应用于机器学习中,尤其是在模型的保存与加载,以及并行处理等方面。

2024-08-15 19:23:01 435

原创 【机器学习算法】梯度提升决策树

梯度提升决策树(Gradient Boosting Decision Trees, GBDT)是一种集成学习方法,它通过结合多个弱学习器(通常是决策树)来构建一个强大的预测模型。GBDT 是目前最流行和最有效的机器学习算法之一,特别适用于回归和分类任务。它在许多实际应用中表现出色,包括金融风险控制、搜索排名、推荐系统等领域。

2024-08-15 18:56:51 1027

原创 【模型】XGBoost

XGBoost 基于梯度提升框架,它通过逐步构建一系列弱学习器(通常是决策树),每一个新的学习器都试图纠正前一个学习器的错误。: 传统的 GBDT 在生成树时是串行的,而 XGBoost 可以通过并行计算优化树结构的部分操作,从而显著提高训练速度。: XGBoost 的正则化机制和内置的处理缺失值能力,使得它在复杂的、噪声较多的数据集上也能表现良好。: 在预测阶段,XGBoost 使用每棵树的输出通过加权投票来做最终预测,从而提升模型的准确性。增加这个值可以提高模型的复杂度,但也增加了过拟合的风险。

2024-08-15 18:53:30 707

原创 【模型】TFLiteModel

TensorFlow Lite 提供了一种将 TensorFlow 模型部署到移动设备、嵌入式设备和物联网设备的轻量级解决方案。通过模型转换、优化和部署,TFLite 模型能够在资源受限的环境中高效运行,并支持各种硬件加速选项,如 GPU、DSP 和 Edge TPU。这使得 TFLite 成为在边缘计算设备上运行机器学习模型的理想选择。

2024-08-13 18:03:26 855

原创 【对抗性训练】FGM、AWP

FGM 是一种快速生成对抗样本的方法,通过对输入样本施加小的扰动,使得模型在原始样本上的预测信心大幅下降,从而产生对抗样本。FGM 的目标是找到一个微小的扰动,使得模型对样本的预测结果发生改变。FGM 是 FGSM(Fast Gradient Sign Method)的简化版本,它的原理相同,但省去了符号函数的应用。AWP 是一种通过扰动模型参数来提升模型鲁棒性的方法。与 FGM 不同,AWP 并不直接在输入样本上施加扰动,而是在模型参数空间中引入扰动。

2024-08-13 17:40:53 1052

原创 【模型】ResNet

ResNet(Residual Network,残差网络)是一种用于图像识别等任务的深度神经网络架构,由何凯明等人于2015年提出。它在计算机视觉领域中具有重要意义,因为它解决了随着网络层数加深而导致的“梯度消失”或“梯度爆炸”问题,使得训练非常深的神经网络成为可能。ResNet 在多个图像识别任务中取得了显著的性能提升,并在 ImageNet 竞赛中获得了第一名。

2024-08-13 16:56:01 972

原创 【数据集处理】TFRecord 文件

TFRecord 文件是 TensorFlow 中的一种常用数据格式,主要用于高效地存储大规模数据集。它可以将数据存储为二进制格式,既减少了存储空间,又加快了数据读取速度,尤其适合大规模的机器学习任务。

2024-08-13 16:25:59 568

原创 【数据集处理】图像重采样

在图像处理和机器学习中,调整图像大小(重采样)是一个常见的操作,涉及到对图像的插值。TensorFlow 的函数支持多种插值方法,包括bilinearnearestbicubic和lanczos3。

2024-08-05 18:18:21 347

原创 【模型】DenseNet

DenseNet(密集连接卷积网络)是一个深度卷积神经网络,它通过在网络中的各层之间建立密集连接来改进梯度传播、特征复用和网络参数的高效利用。DenseNet 模型的关键特征包括:密集连接:特征复用:紧凑网络:过渡层:生长率(Growth Rate):DenseNet 的优点:DenseNet 的缺点:总的来说,DenseNet 提供了一种通过密集连接和特征复用来构建高效、紧凑且性能优越的深度卷积神经网络的方法。构造 DenseNet 模型涉及以下几个关键步骤:定义 Dense Block、定义 Trans

2024-08-01 19:10:24 962

原创 【模型】timm库

是一个用于深度学习的开源库,全称是 “PyTorch Image Models”。该库由 Ross Wightman 创建并维护,旨在提供高效且易于使用的图像模型,包括大量预训练的模型和实用工具。(PyTorch Image Models)库包含了众多预训练的图像分类模型,这些模型在各种流行的数据集上进行了训练。这些预训练模型已经在ImageNet等大型数据集上进行了训练,因此在迁移学习任务中通常表现良好。选择适合你任务的模型架构,可以加快训练过程,并提高模型的性能。可以通过以下代码查看。

2024-08-01 18:43:29 571

原创 【数据集处理】dicom文件、albumentations库

它提供了丰富的图像增强方法,具有高效、灵活和易用的特点,被广泛用于深度学习模型的训练。Albumentations 的使用非常直观,你可以通过定义一个增强序列,然后将其应用到图像和标注数据(如标签、边界框、关键点等)上。DICOM标准的广泛采用极大地促进了医学图像的数字化和信息化,使得医疗机构能够更高效地管理和利用医学影像数据。通过这种方式,每次从数据集中读取图像时,都会应用不同的增强变换,从而增加数据的多样性,提升模型的泛化能力。DICOM协议支持在网络中传输医学图像和相关数据。

2024-08-01 18:19:48 1337

原创 【超参数调优】Optuna

Optuna 允许用户灵活地定义超参数的搜索空间,包括连续型、离散型和条件型超参数。目标函数需要接受一个对象,并返回一个需要最小化(或最大化)的值。# 加载数据集# 定义目标函数# 定义超参数搜索空间param = {# 创建 LightGBM 数据集# 训练模型# 预测y_pred = [list(x).index(max(x)) for x in y_pred] # 获取每行最大值的索引作为预测类别# 计算准确率# 创建研究对象。

2024-07-30 18:57:51 987

原创 【模型】VotingClassifier

VotingClassifier 是一个用于集成学习的分类器,它结合了多个不同模型的预测结果,以提高整体的预测准确性和稳定性。集成学习的基本思想是通过结合多个弱分类器来创建一个强分类器。VotingClassifier 是 scikit-learn 库中的一个类,支持多种分类模型的集成。

2024-07-30 18:41:07 579

原创 【模型】CatBoost

CatBoost 是一种高效的梯度提升决策树(GBDT)算法,由俄罗斯科技公司 Yandex 开发。它特别擅长处理分类特征和小数据集,在许多机器学习竞赛和实际应用中表现出色。

2024-07-30 18:38:07 313

原创 【模型】LightGBM

LightGBM 是一种基于决策树算法的梯度提升框架,专为快速高效的模型训练和预测设计。它由微软开发,并且广泛应用于各种机器学习任务,尤其在结构化数据和分类问题上表现出色。

2024-07-30 18:29:27 688

原创 【数据集处理】Polars库、Parquet 文件

Parquet 文件格式在数据存储和处理方面有很多优势,特别是在大数据环境中。Polars 库在数据处理和分析方面具有显著的优势,特别是在性能和效率上。

2024-07-25 19:30:37 1064

原创 【算法】退火算法 Simulated Annealing

退火算法(Simulated Annealing, SA)是一种基于热力学模拟的优化算法,用于求解全局优化问题。它通过模拟物理退火过程来寻找全局最优解。

2024-07-25 18:22:10 1698 1

原创 【深度学习】CycleGAN

CycleGAN(Cycle-Consistent Generative Adversarial Network)是一种生成对抗网络(GAN)架构,用于图像到图像的翻译任务,无需成对的训练样本。CycleGAN 可以在两个域之间进行图像转换,例如将马转换为斑马,将白天的风景转换为夜晚的风景等。

2024-07-15 15:56:33 505

原创 [深度学习] 前馈神经网络

每个神经元与前一层的所有神经元连接。

2024-06-28 18:43:11 1282 1

原创 [深度学习] Transformer

Transformer是一种深度学习模型,最早由Vaswani等人在2017年的论文中提出。它最初用于自然语言处理(NLP)任务,但其架构的灵活性使其在许多其他领域也表现出色,如计算机视觉、时间序列分析等。以下是对Transformer模型的详细介绍。

2024-06-26 18:11:14 1769

原创 [深度学习] 图神经网络GNN

图神经网络(Graph Neural Network, GNN)是一类用于处理图结构数据的深度学习模型。图是一种重要的数据结构,广泛应用于社交网络、分子化学、推荐系统、交通网络等领域。GNN的出现使得能够有效地在图结构数据上进行学习和推理。

2024-06-26 17:20:40 567

原创 [深度学习] 变分自编码器VAE

变分自编码器(Variational Autoencoders, VAEs)是一种生成模型,它结合了概率图模型和深度学习,通过学习数据的潜在表示来生成新的数据样本。VAEs在数据生成、异常检测、数据压缩等领域具有广泛应用。以下是对变分自编码器的详细介绍。

2024-06-26 12:34:34 856

原创 [深度学习] 生成对抗网络GAN

生成对抗网络(Generative Adversarial Networks,GANs)是一种由 Ian Goodfellow 等人在2014年提出的深度学习模型。GANs的基本思想是通过两个神经网络(生成器和判别器)的对抗过程,生成与真实数据分布相似的新数据。以下是对GANs的详细介绍。

2024-06-26 12:01:45 1482

原创 [深度学习] 自编码器Autoencoder

自编码器(Autoencoder)是一种无监督学习算法,主要用于数据的降维、特征提取和数据重建。自编码器由两个主要部分组成:编码器(Encoder)和解码器(Decoder)。其基本思想是将输入数据映射到一个低维的潜在空间,然后再从该潜在空间重建出原始数据。

2024-06-26 11:08:00 1528

原创 [深度学习] 门控循环单元GRU

门控循环单元(Gated Recurrent Unit, GRU)是一种用于处理序列数据的递归神经网络(Recurrent Neural Network, RNN)变体,它通过引入门控机制来解决传统RNN在处理长序列时的梯度消失问题。GRU与长短期记忆网络(LSTM)相似,但结构更为简化。以下是GRU的详细介绍:GRU由以下几个主要部分组成:具体来说,GRU的计算过程如下:假设xt是当前时间步的输入,ht−1​是上一时间步的隐状态,则GRU的更新过程可以用以下公式表示:GRU广泛应用于自然语言处理(NLP)

2024-06-26 10:26:40 1124

原创 [深度学习]长短期记忆网络LSTM

这些问题的出现主要是由于RNN的结构特性:在每个时间步,输入和隐藏状态之间的权重是共享的,而反向传播的链式乘积效应使得梯度难以有效地传播或控制。这就促使了LSTM(长短期记忆网络)的引入,它通过门控机制(例如遗忘门、输入门等)有效地解决了这些梯度问题,允许网络更好地捕捉和利用长期依赖关系。这些应用场景展示了LSTM在处理序列数据方面的强大能力,无论是在自然语言处理、时间序列预测、语音处理还是其他领域,LSTM都能有效地捕捉和利用长时间跨度的相关信息,提供准确和高效的解决方案。

2024-06-25 17:30:31 954

原创 [深度学习]循环神经网络RNN

RNN(Recurrent Neural Network,即循环神经网络)是一类用于处理序列数据的神经网络,广泛应用于自然语言处理(NLP)、时间序列预测、语音识别等领域。与传统的前馈神经网络不同,RNN具有循环结构,能够通过“记忆”前一时刻的信息来处理序列数据。

2024-06-25 11:57:57 837

原创 [深度学习] 卷积神经网络CNN

卷积神经网络(Convolutional Neural Network, CNN)是一种专门用于处理数据具有类似网格结构的神经网络,最常用于图像数据处理。

2024-06-25 11:24:24 1266

原创 [机器学习算法] Q学习

Q学习(Q-Learning)是一种基于值的强化学习算法,用于在给定状态下选择动作,以最大化累积奖励。它通过不断更新一个称为Q表(Q-table)的表来学习动作的价值。

2024-06-20 18:23:56 1189

原创 [机器学习] 监督学习和无监督学习

监督学习和无监督学习是机器学习的两种主要方法,它们之间有几个关键区别:监督学习(Supervised Learning):无监督学习(Unsupervised Learning):监督学习:无监督学习:监督学习:无监督学习:监督学习示例:无监督学习示例:监督学习:无监督学习:监督学习:无监督学习:总结起来,监督学习使用带标签的数据进行训练,目标是预测或分类新的数据,而无监督学习使用无标签的数据,目标是发现数据的内在结构或模式。两者在数据需求、训练目标和评估方法上有显著的区别。

2024-06-20 17:54:59 514

原创 [机器学习算法] 主成分分析

主成分分析(Principal Component Analysis, PCA)是一种用于降维和特征提取的统计方法。它可以将高维数据投影到较低维度的空间中,同时尽量保留数据的变异性。以下是详细的学习步骤,包括理论和实际操作。

2024-06-20 17:40:20 1102

原创 [机器学习算法] K均值聚类

K均值聚类是一种迭代算法,通过将数据分成K个簇来最小化簇内数据点到簇中心的距离。

2024-06-20 16:56:03 1578

原创 [机器学习算法]支持向量机

支持向量机(SVM)是一种用于分类和回归分析的监督学习模型。SVM通过找到一个超平面来将数据点分开,从而实现分类。

2024-06-20 12:55:52 895

原创 [机器学习算法]决策树

特征选择以增益率为例,在决策树构建过程中,选择每个节点的分裂特征是基于当前数据集的增益率计算结果的。对于每个分裂点,我们都会重新计算剩余特征的增益率,并选择其中最高的作为下一个分裂特征。树的每个节点表示一个特征,节点之间的分支表示特征的可能取值,叶节点表示分类或回归结果。固有值是衡量属性取值多样性的一种指标。通过这种方式,决策树会根据每个节点选择最佳的分裂特征,直到所有数据点都被正确分类或没有更多的特征可供分裂。通过计算每个属性的增益率,选择增益率最高的属性作为决策树节点的划分属性,从而构建最优的决策树。

2024-06-19 21:24:08 1863 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除