自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(286)
  • 收藏
  • 关注

原创 jsonString = json.dumps(partition_dict, indent=4)

这个字符串是 JSON 格式,并且各层级按照缩进格式化。转换为格式化后的 JSON 字符串,并存储在变量。这段代码的作用是将一个 Python 字典对象。

2024-08-24 20:14:51 148

原创 训练集(train)、验证集(validation)和测试集(test)

训练集(train)、验证集(validation)和测试集(test)

2024-08-24 16:44:35 54

原创 计算机视觉领域(CV)论文中“圈加”、“圈乘”和“点乘”的解释以及代码示例(⊕、⊙、⊗、广播、广播机制、element-wise、矩阵、乘法、矩阵乘法、向量)

计算机视觉领域(CV)论文中“圈加”、“圈乘”和“点乘”的解释以及代码示例(⊕、⊙、⊗、广播、广播机制、element-wise、矩阵、乘法、矩阵乘法、向量)_圈×-CSDN博客。

2024-08-21 14:11:45 136

原创 5G三大应用场景: eMBB、uRLLC和mMTC

5G三大应用场景: eMBB、uRLLC和mMTC_三大应用场景典型应用-CSDN博客。

2024-08-20 20:58:05 119

原创 Windows常用快捷键(效率、组合键、文字编辑、文件、Home、End、Delete)

Windows常用快捷键(效率、组合键、文字编辑、文件、Home、End、Delete)_windows快捷键-CSDN博客。

2024-08-20 19:31:13 197

原创 高平均交并比 (MIoU) | a high mean intersection over union (MIoU) score

因此,MIoU 越高,模型的分割性能越好。简而言之,高 MIoU 分数表示模型在图像分割任务中表现优异,准确地识别并分割出图像中的不同类别区域。在图像分割中,模型的任务是将图像中的每个像素分类到一个特定的类别,比如分割出图像中的道路、汽车、行人等对象。平均交并比 (MIoU) | mean intersection over union (MIoU) score是一种常用的图像分割评估指标,用来衡量模型在图像分割任务中的性能。IoU=(分割出的区域∩真实区域)/(分割出的区域∪真实区域)

2024-08-19 19:30:46 219

原创 吞吐量 评估指标

吞吐量(Throughput)是指在特定时间内系统、网络或设备可以处理的工作量。吞吐量的单位可以是每秒处理的数据量(如比特/秒、字节/秒)、每秒钟处理的事务数量、或每单位时间内完成的任务数量。在优化系统性能时,提升吞吐量常常是一个重要目标,因为它直接关系到系统的处理能力和效率。:在网络环境中,吞吐量通常指网络在单位时间内成功传输的数据量。:在计算系统或数据库中,吞吐量指系统在一定时间内能够完成的任务或处理的请求数量。:在制造业或生产过程中,吞吐量指生产线在一定时间内可以完成的产品数量。

2024-08-17 11:48:35 153

原创 95-percentile prediction errors 和 average prediction errors

和是两种不同的误差度量方式,分别用于描述模型预测误差的分布特征。

2024-08-17 11:07:58 216

原创 CDF图 累积分布函数

CDF 累积分布函数(cumulative distribution function)_cdf图-CSDN博客。累积分布函数 - 维基百科,自由的百科全书 (wikipedia.org)

2024-08-17 10:59:53 345

原创 WN18RR、FB15k-237 和 Cross3domain 数据集

主要针对可逆关系问题,提供更具挑战性的任务以提高模型的泛化能力。强调跨域的知识图谱嵌入,测试模型的跨域学习能力和知识迁移能力。

2024-08-15 21:30:51 507

原创 NIPS改名NeurIPS,出于平等公正的价值观考虑

虽然 “NIPS” 的使用在学术领域是中性的,但在某些特定的社会和文化语境中,它确实可能被解读为对女性不尊重或具有性别歧视的含义。因此,了解并避免使用可能产生误解的缩写或术语是重要的。“NIPS” 原本是**神经信息处理系统会议(Neural Information Processing Systems Conference)**的缩写,该会议是机器学习和人工智能领域的一个顶级学术会议。虽然“NeurIPS”的新名称依旧保留了 “NIPS” 的发音,但更换缩写的行动旨在减少歧视性解读的可能性。

2024-08-15 15:59:18 220

原创 跨域(迁移学习)的形式化定义

2024-08-15 15:19:24 76

原创 “Counterfactual Invariance” 反事实不变性

变量不变性(Variable Invariance):某些关键变量的值在不同输入下保持不变。因果关系不变性(Causal Relationship Invariance):因果关系的结构在不同输入下保持不变。决策不变性(Decision Invariance):决策过程在不同输入下保持不变。

2024-08-14 16:12:43 679

原创 拓扑斯理论(Topos Theory)

(Topos Theory)是数学逻辑的一个分支,起源于对集合论和拓扑学概念的概括和推广。它由亚历山大·格罗滕迪克(Alexander Grothendieck)在20世纪60年代引入,后来由其他数学家如威廉·劳维尔(William Lawvere)和迈尔斯·提尔尼(Myles Tierney)进一步发展。拓扑斯理论的核心思想是提供一个统一的框架,将许多数学结构和概念纳入其中。拓扑斯理论是一个强大且灵活的数学工具,它将不同领域的概念统一在一个抽象的框架中,为解决复杂的数学问题提供了新的视角和方法。

2024-08-14 15:56:31 436

原创 TokenEmbedding、PositionalEmbedding、TemporalEmbedding

将离散标记(如单词、子词)映射为连续向量,常用于 NLP 模型。:将序列中的位置信息编码为向量,常用于 Transformer 模型中。:将时间特征(如小时、天、星期等)嵌入为向量,主要用于时间序列分析和预测。这些嵌入层通过将离散输入转换为连续表示,帮助模型捕捉输入数据的语义、位置和时间相关的模式。

2024-08-10 00:02:01 651

原创 self.register_buffer(‘pe‘, pe)

这段代码是 PyTorch 中用于注册持久缓冲区(buffer)的一个方法。具体地,将张量pe作为模型的一部分进行注册,但它不会被视为模型的可学习参数。

2024-08-09 23:40:43 348

原创 self.tokenConv = nn.Conv1d(in_channels=c_in, out_channels=d_model, kernel_size=3, padding=padding, p

这段代码定义了一个一维卷积层(nn.Conv1d),在 PyTorch 中常用于处理序列数据,例如时间序列、文本或音频信号。

2024-08-09 21:40:47 226

原创 AttributeError: ‘NoneType‘ object has no attribute ‘f_lineno‘

报错]深析AttributeError: ‘NoneType‘ object has no attribute ‘xxx‘(持更)_nonetype object has no attribute-CSDN博客。

2024-08-09 13:48:17 122

原创 深度学习若干小问题

这种拼接通常用于模型的自回归生成任务,尤其是在序列到序列(Seq2Seq)任务中。)结合在一起,为模型的下一步预测提供输入。这可以帮助模型在生成序列时更好地利用已知的信息。分支中,模型的输出可能包含多个部分,例如主输出和注意力权重。时,模型可能返回两个部分(如预测和注意力权重),因此需要。中的最后一个维度(特征维度)将用于选择所有特征的最后部分。,模型只返回一个输出,即主预测输出。的前一部分)与当前模型生成的预测结果(用于选择第一个部分,通常是主预测输出。这意味着从特征维度的开头选择数据。

2024-08-09 11:29:10 497

原创 for i, (batch_x, batch_y, batch_x_mark, batch_y_mark) in enumerate(train_loader)

这段代码是一个典型的 PyTorch 训练循环的一部分,用于从中迭代地获取训练批次(batch)。具体来说,是一个数据加载器,通常是 PyTorch 中的DataLoader对象,用于将数据分成多个批次并在训练过程中逐批提供给模型。

2024-08-09 11:00:51 191

原创 train_loader enumerate迭代示例

这段代码用于训练深度学习模型,它使用PyTorch框架,通过迭代训练数据的批次来优化模型的参数。代码结构包含了标准的训练循环,并处理了使用混合精度训练的情况(

2024-08-09 10:45:16 293

原创 train_loss.append(loss.item())

是 PyTorch 中用于记录训练过程中每个批次的损失值的代码片段。train_loss是一个,用于存储多个损失值,而不是一个单独的数值。

2024-08-09 10:27:20 275

原创 深度学习模型f_dim参数

f_dim通常在深度学习模型中用作特征维度(feature dimension)的参数,它指定了输入数据或模型中某一层的特征向量的维度。

2024-08-09 10:06:41 245

原创 args.output_attention

是一个在某些深度学习模型(尤其是那些基于注意力机制的模型,如 Transformer 或一些时序预测模型)中可能存在的参数。它控制模型在前向传播时是否输出注意力权重或注意力矩阵。

2024-08-09 09:55:43 203

原创 args.use_amp

是一个在深度学习训练中常用的参数,特别是在使用 PyTorch 或其他支持混合精度训练(Automatic Mixed Precision, AMP)框架的情况下。use_amp通常是一个布尔值参数,用于指示是否在训练过程中启用混合精度。

2024-08-08 23:21:49 225

原创 sklearn.metrics中的评估指标

提供了多种评估指标,用于衡量分类、回归、聚类、排序等任务的模型性能。

2024-08-08 23:17:59 791

原创 optim.Adam()

torch.optim优化算法理解之optim.Adam()-CSDN博客PyTorch优化算法:torch.optim.Adam 的参数详解和应用-CSDN博客optim.Adam是 PyTorch 中一种非常流行的优化器,它是 Adam(Adaptive Moment Estimation)优化算法的实现。Adam 优化器结合了动量优化和 RMSProp 的优点,以提高训练深度学习模型的效率和效果。optim.Adam。

2024-08-08 22:18:51 836

原创 args.patience

早停的基本思想是:在训练过程中,如果模型在验证集上的表现没有显著改进,则停止训练,以防止模型在训练集上过拟合。定义: 是早停机制中的一个参数,用于指定在验证集上的性能没有提升的情况下,最多允许多少个训练周期(epochs)不改进后才停止训练。作用: 它控制了模型在验证集上的性能没有提升的宽限期。即使模型的性能在某些周期中没有改进,只要不超过指定的周期数,训练过程将继续进行。参数:假设在训练过程中, 设置为 5,这意味着如果验证集上的性能在 5 个连续的周期中没有提高,则训练将被停止。这样做是为了避免无谓的

2024-08-08 21:44:41 280

原创 args.task_name, args.model_id, args.model, args.data, args.features, args.seq_len, args.label_len,

这些参数通常用于配置机器学习或深度学习模型的训练任务。它们可以用来定义模型的结构、训练数据的特征以及其他超参数。

2024-08-08 20:59:11 488

原创 pd.to_datetime(df_stamp[‘date‘].values)

会包含与时间戳相关的一组特征,可能是一个 NumPy 数组或 Pandas DataFrame。作用是从时间戳或日期中提取时间特征。作用是将日期字符串转换为。

2024-08-08 20:08:29 132

原创 self.timeenc =1

是代码中一个变量赋值的操作。在时间序列预测任务或涉及时间编码的模型中,变量可能与时间特征的编码方式有关。

2024-08-08 19:52:33 213

原创 scaler.fit(),scaler.transform(),StandardScaler

StandardScaler — scikit-learn 1.5.1 documentation --- StandardScaler — scikit-learn 1.5.1 文档。【机器学习】详细解析Sklearn中的StandardScaler---原理、应用、源码与注意事项-CSDN博客。Sklearn之数据预处理——StandardScaler_standard scaler-CSDN博客。

2024-08-08 18:50:12 439

原创 border1s = [0, num_train - self.seq_len, len(df_raw) - num_test - self.seq_len] border2s = [num

数据集通常会被分成训练集、验证集和测试集。num_train: 训练集的数据点数量,即模型在训练时使用的时间步数。df_raw: 原始数据集,通常是一个包含时间序列数据的 DataFrame 或类似的结构。num_test: 测试集的数据点数量,即模型在测试时使用的时间步数。: 输入序列的长度,即模型每次预测时需要参考的过去时间步数。

2024-08-08 18:02:35 234

原创 torch.utils.data.Dataset 介绍与实战

【PyTorch】torch.utils.data.Dataset 介绍与实战-CSDN博客。

2024-08-08 11:11:40 162

原创 Pytorch构建数据集——torch.utils.data.Dataset()和torch.utils.data.DataLoader()

Pytorch构建数据集——torch.utils.data.Dataset()和torch.utils.data.DataLoader()-CSDN博客。

2024-08-08 10:53:14 115

原创 基于实例讲解PyTorch中的transforms类

【单点知识】基于实例讲解PyTorch中的transforms类_pytorch 透视变换-CSDN博客。

2024-08-08 10:50:01 118

原创 基于实例讲解PyTorch中的ImageFolder类

【单点知识】基于实例讲解PyTorch中的ImageFolder类_pytorch imagefolder-CSDN博客。

2024-08-08 10:41:36 174

原创 pytorch DataLoader(数据迭代器)参数解析与用法合集

PyTorch入门必学:DataLoader(数据迭代器)参数解析与用法合集_python dataloader-CSDN博客。

2024-08-08 10:16:14 196

原创 python使代码运行到某一行暂时停止的多种方法

通过上述方法,我们可以根据需要在 Python 代码中设置暂停点,以便进行调试或等待用户输入。时,它会暂停并进入交互式调试模式,允许我们检查变量和执行其他调试操作。pdb.set_trace() # 只有在条件满足时设置断点。在调试复杂代码时,可能希望在满足特定条件时暂停执行。pdb.set_trace() # 设置断点。time.sleep(5) # 暂停5秒。可以使用 Python 的内置调试器。函数是设置断点的推荐方法,它是。希望代码暂停一段时间,可以使用。最简单的方法之一是使用。

2024-08-07 23:29:27 273

原创 docker容器 apt-get update 失败、容器连接外部网络失败、ps -a 容器突然全部消失

docker容器 apt-get update 失败。

2024-08-07 21:43:19 161

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除