自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(154)
  • 问答 (1)
  • 收藏
  • 关注

原创 npm怎么迁移到pnpm

但是安装之后使用pnpm install 就发现包全被移动到ignored文件夹下面了,还报错。通过npm安装,安装好的pnpm在node_module下面,感觉不能用的亚子。配置pnpm,之前只是安装了,但没有配置,所以无法识别pnpm命令。bin 文件夹下面只有这个文件,既没有exe文件也没有cmd文件。看报错原因说使用了两个不同的包管理器,那应该怎么办呢?把pnpm.exe所在目录的路径添加到环境变量里面了。下载的vue3模板用到了pnpm,就安装了一下。通过下面的命令安装成功了。

2024-04-14 21:43:05 530

原创 webstorm修改默认存储和配置位置

webstorm

2024-04-14 17:03:07 610

原创 webstorm修改默认存储和配置位置

webstorm

2024-04-14 11:35:07 433

原创 将神经网络加到列表里面之后,用.to(device)函数迁移参数到gpu上失败

使用[nn.Linear(10,10) for i in range(n)]生成多个相同的神经网络被重复调用,独自训练参数,结果参数迁移的时候发现只有列表的第一个对象的参数被迁移到gpu上了,其他参数都没有被迁移过去。nn.ModuleList 这个类,可以把任意 nn.Module 的子类 (比如 nn.Conv2d, nn.Linear 之类的) 加到这个 list 里面,类似于Python 自带的 list。如果只使用python自带的list,会发现。

2024-04-13 20:02:06 461

原创 梯度反向传播过程是如何处理repeat函数的

梯度反向传播

2024-04-04 15:06:28 542

原创 梯度:般在神经网络里面是一个batch清空一次梯度还是一个epoch清空一次梯度?

通常,在神经网络训练中,是在每个 mini-batch 处理完成后清空一次梯度,而不是在每个 epoch 结束后清空一次梯度。这是因为在每个 mini-batch 中,模型参数的梯度是根据当前 mini-batch 的损失计算得到的,如果不在每个 mini-batch 后清空梯度,梯度会在每个 mini-batch 中累积,导致参数更新不准确。

2024-04-03 16:56:42 619 1

原创 AttributeFrror:DatetimeIndex‘object has no attribute ‘weekofyear‘

使用.isocalendar().week方法再将其转换为列表,再将其转换为pandas的Index对象实现同样的效果。报错,原因,pandas的DatetimeIndex对象的weekofyear已经弃用,解决办法。

2024-03-31 16:35:35 401

原创 FFPFormer:Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting Transformer

随着物联网(IoT)系统的发展,精确的长期预测方法对决策者评估当前状况并制定未来政策至关重要。目前,Transformer和MLP是两种深度时间序列预测的范式,其中前者因其出色的注意力机制和编码器-解码器架构而更为流行。然而,数据科学家似乎更愿意深入研究编码器,而忽略了解码器。一些研究者甚至采用线性投影来替代解码器,以降低复杂性。我们认为,无论是提取输入序列的特征,还是寻求输入与预测序列之间的关系,即编码器和解码器各自的功能,都至关重要。

2024-03-21 22:30:00 704

原创 OneNet:OneNet: Enhancing Time Series Forecasting Models under Concept Drift by Online Ensembling

时间序列预测模型的在线更新旨在通过有效地更新基于流媒体数据的预测模型来解决概念漂移问题。许多算法都是为在线时间序列预测而设计的,一些算法利用跨变量依赖性,而另一些算法则假设变量之间的独立性。考虑到每个数据假设在在线时间序列建模中都有自己的优缺点,我们提出了在线集成网络(OneNet)。它动态地更新并结合了两个模型,一个关注于跨时间维度的依赖关系建模,另一个关注于跨变量依赖关系建模。我们的方法将基于强化学习的方法合并到传统的在线凸规划框架中,允许两个模型与动态调整权重的线性组合。

2024-03-21 22:28:59 1039 1

原创 2023年11月论文:DANCE OF CHANNEL AND SEQUENCE(CSformer)(无源码)

DANCE OF CHANNEL AND SEQUENCE:AN EFFICIENT ATTENTION-BASED APPROACH FORMULTIVARIATE TIME SERIES FORECASTING推荐阅读指数: ★★大意了,没仔细看实验结果和模型图,精度了一篇有点不太行的文章,实验结果只有一张表,模型图又很简单,且机构也很一般。通道独立性导致信息退化,文章提出CSformer来应对这一问题,CSformer中精心设计了两阶段的自注意力机制,该机制可以分别提取特定序列信息和通道信息,同

2024-01-11 09:10:02 903 2

原创 ForecastPFN: Synthetically-Trained Zero-Shot Forecasting

绝大多数时间序列预测方法需要大量的训练数据集。然而,许多现实生活中的预测应用程序只有很少的初始观测值,有时只有40个或更少。因此,在数据稀疏的商业应用中的,大多数时间序列预测方法的适用性受到了限制。(开篇说明课题背景:观测数据少)虽然最近有些工作尝试在非常有限的初始数据设置下(“zero-shot"场景)做预测 ,由于预训练的数据不同,其性能也呈现出不一致性。在我们的工作中,我们采用了一种不同的方法,并设计了(prior-data fitted network),这是第一个纯粹基于新的合成数据分布。

2024-01-08 17:04:04 1127

原创 Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting Transformer(FFPformer)

当前,Transformer和MLP是用于深度学习时间序列预测的两种主要范式,其中前者因为其注意力机制和encoder-decoder结构而被更加广泛地应用。然而数据科学家似乎更愿意在encoder上投入研究,decoder往往被忽略。一些研究者甚至试图采用线性映射替代decoder来降低复杂度。(decoder被忽略的现状)我们认为探寻输入和预测序列的联系与提取输入序列的特征同等重要,前者恰好是encoder和decoder的代表功能,具有很大意义。

2024-01-07 20:19:46 1085 1

原创 论文阅读:Large Language Models Are Zero-Shot Time Series Forecasters(2023NIPS)(LLMTime)

对于预测任务:通过将时间序列编码为一系列数字,可以将时间序列预测任务转化为文本里面的next-token预测任务。在大规模预训练语言模型的基础上,文章提出了一些方法用于有效,并(分布转换部分涉及到诸多统计学知识)。在数值补全任务中,文章展示了语言模型(LLMs)如何通过非数值文本自然处理缺失数据,无需插补,如何适应文本侧面信息,并回答问题以帮助解释预测。

2023-12-27 15:34:20 1523

原创 lag-llama源码解读(Lag-Llama: Towards Foundation Models for Time Series Forecasting)

文章内容:时间序列预测任务,单变量预测单变量,基于Llama大模型,在zero-shot场景下模型表现优异。创新点,引入滞后特征作为协变量来进行预测。

2023-12-27 15:11:26 1907 1

原创 时间序列分析

时间序列分析

2023-12-21 16:57:39 871

原创 np.random.shuffle

如果需要得到一个新的打乱顺序的数组,可以使用 numpy.random.permutation 函数,它返回一个新的数组,而不修改原始数组。对于多维数组,numpy.random.shuffle 函数会沿着第一个轴(axis 0)打乱数组的顺序。这个函数会直接修改原始数组,而不返回一个新的打乱顺序的数组。numpy.random.shuffle 将打乱数组的各行,但每行内部的元素顺序保持不变。这个函数返回一个新的打乱顺序的数组,而不修改原始数组。在这个示例中,my_array 数组的元素顺序被随机打乱。

2023-12-20 16:39:15 736

原创 torch.tensor vs torch.from_numpy()

torch.tensor函数和torch.from_numpy()函数都可以将numpy array转换为torch tensro,不同之处在于前者共享内存(torch的底层实现就是numpy,所以可以共享),后者开辟新的空间。

2023-12-18 22:56:24 536

原创 论文阅读:DSformer:A Double Sampling Transformer for Multivariate Time Series Long-term Prediction

多变量长期预测任务旨在预测未来较长一段时间的数据的变化,从而为决策提供参考。当前模型对时间序列的以下三个特征利用还不充分:全局信息、局部信息、变量相关性。由此文章提出DSformer(double sampling transformer)模型,该模型包含了double sampling(DS) block和 temporal variable attentioon(TVA) block。

2023-12-18 17:04:25 689 2

原创 python注释规范

Python 中的函数注释通常使用文档字符串(docstring)来提供对函数的说明。文档字符串是放置在函数、模块或类的顶部的字符串,用于描述其功能、输入参数、返回值以及其他相关信息。

2023-12-14 08:56:51 770

原创 深度学习代码片段收集

深度学习代码片段收集

2023-12-14 08:44:14 562

原创 Python中有下划线的函数和没有下划线的函数的区别

在PyTorch中,带有下划线的函数通常是原地操作,用于在张量上直接修改值,而不创建新的张量对象。需要注意的是,使用原地操作函数时要小心,因为它们会修改原始对象,可能导致意外的副作用。如果需要保留原始对象,或者希望避免修改原始对象,应使用对应的非原地操作函数。相反,没有下划线的函数通常表示这个函数会返回一个新的对象,而不修改原始对象。总结起来,带下划线的函数通常是原地操作,直接在原始对象上进行修改。没有下划线的函数通常是非原地操作,返回一个新的对象而不修改原始对象。

2023-12-13 14:32:16 615

原创 benchmark

在深度学习中,基准(benchmark)通常指的是一种标准或者参考,用于评估模型、算法或系统的性能。基准测试对于比较不同模型或算法的性能,以及评估它们在特定任务上的优劣非常重要。4.竞赛基准: 在深度学习领域,一些竞赛如ImageNet挑战赛、Kaggle竞赛等通常提供了公认的基准,用于比较不同团队或方法的性能。通过使用基准测试,研究人员和从业者能够更客观地评估和比较不同深度学习方法的性能,帮助他们选择最适合特定任务的模型或算法。这可以包括训练和推理的速度,以及模型在不同硬件配置下的资源利用情况。

2023-12-09 22:55:27 471

原创 python中的抽象方法

在 Python 中,可以通过使用抽象基类(Abstract Base Class,简称 ABC)来定义抽象方法。抽象基类是一种特殊的类,它不能直接实例化,而是用作其他类的基类。抽象方法作为接口定义在抽象基类中,要求子类必须实现这些方法。要定义抽象方法,需要使用 abc 模块中的 ABC 基类和 abstractmethod 装饰器。下面是使用抽象方法的示例:pass在上面的示例中,MyAbstractClass 是一个抽象基类,它定义了一个抽象方法 my_method()。

2023-11-09 22:41:30 984

原创 搭建神经网络(torch.nn的用法)

零零碎碎总结了一些torch框架里面nn模块的用法,尤其是关于搭建神经网络的。

2023-11-09 16:23:05 1184

原创 python里面的浅拷贝和深拷贝

浅拷贝(shallow copy)和深拷贝(deep copy)是在 Python 中复制对象时的两种不同方式。

2023-11-05 16:07:20 200

原创 torch.gather函数用法

torch.gather 函数用于从输入张量中,然后将它们放入一个新的张量中。这对于根据索引从输入张量中检索值非常有用。

2023-11-01 11:04:11 307

原创 torch增加维度操作

在Python中,None 表示空值或占位符。在masked_pos[:, :, None]这个切片操作中,None 被用作一个占位符,以改变张量的维度。这通常用于将一维张量变为二维张量,或者改变张量的形状。具体来说,masked_pos[:, :, None] 的操作是用于在 masked_pos 这个张量的最后一个维度(通常是元素的维度)上增加一个新的维度。这个新维度将在每个原始元素之间插入,将原本的一维数据转换为二维数据。这种操作通常在深度学习中用于。

2023-11-01 10:31:44 1223

原创 zip函数用法:解压与打包

在 Python 中,zip 函数可以用于两种情况:打包(压缩)和解压(解包)。1.打包(压缩):当传递多个可迭代对象作为参数给 zip 函数时,它会将这些可迭代对象的相同位置的元素组合成元组,从而创建一个新的可迭代对象。例如,zip([1, 2, 3], [‘a’, ‘b’, ‘c’]) 会返回一个可迭代对象,其中包含三个元组:(1, ‘a’)、(2, ‘b’) 和 (3, ‘c’)。这是一种打包(压缩)操作,将多个可迭代对象的元素配对在一起。

2023-11-01 00:24:44 207

原创 ValueError: cannot switch from manual field specification to automatic field numbering

这个错误是由于在字符串格式化中混合了手动字段规范和自动字段编号引起的。在Python的字符串格式化中,你可以使用手动字段规范(例如 {0}、{1})或自动字段编号({})来指定变量的插值位置,但不能混合使用它们。在你的代码中,你正在混合使用手动字段规范和自动字段编号,这会导致错误。要解决这个问题,你可以选择一种方式来格式化的字符串。在这种情况下,大括号 {} 会自动按顺序填充相应的变量。如果你想使用手动字段规范,可以像你一开始的代码一样继续使用手动字段规范,但确保不要混合使用它们。

2023-10-31 08:55:02 455

原创 pytorch使用出现“RuntimeError: An attempt has been made to start a new process before the...“ 解决方法

num_workers

2023-10-29 16:06:32 42

原创 excel常用函数

excel函数

2023-10-20 15:04:40 189

原创 vlookup函数踩坑(wps)

wps表格踩坑

2023-10-20 15:01:27 706

原创 Day1-DeepWalk

deepwalk

2023-09-25 10:40:21 94

原创 保研复习-计算机组成原理

计算机组成原理保研复习,自用

2023-09-19 09:29:27 784

原创 矩阵特征值特征向量理解

特征值和特征向量的一二理解

2023-08-31 10:58:30 231

原创 数据结构复习

抽象数据类型:对数据类型的描述,这种描述是抽象的,描述1.数据对象集,2.与数据集合关联的操作集。抽象数据类型:数组,矩阵,队列,栈,树(特别:二叉树),图。程序与算法 算法是有限指令集合 ,一定要在有限步骤内终止。抽象:不依赖于具体实现,只描述是什么,不涉及如何做到。数据对象类型的抽象:elementtype。对数据对象的描述不涉及具体的存储方式。程序等于数据加算法,程序可以无限运行。进程是程序在不同数据集合上运行的实体。渐进表示法分析算法复杂度的增长趋势。对操作的描述不涉及具体的实现。

2023-08-30 08:12:23 277

原创 找到字符串中所有字母异位词

找到字符串中所有的字母异位词

2023-08-29 11:19:16 87

原创 动态规划dp

动态规划

2023-08-23 22:36:57 65

原创 c++学习过程中遇到的问题

C++学习过程中遇到的问题

2023-08-20 16:53:15 106

原创 python中的并发:多进程和多线程

python里面的多进程和多线程

2023-08-19 16:41:01 140

数字图像处理问答题总结和答案

数字图像课程复习时老师给发的问答题,结合课本还有我自己的理解写的答案,希望对其他人有帮助。

2023-02-28

数字图像处理复习时绘制的思维导图

数字图像处理思维导图包括:图像采集、空域增强、图像分割、频域增强、形态学算法、彩色图像处理、图像压缩、预测编码八个思维导图。是本人在大三复习考试时完成,可能有些不完善的对方,望包含。

2023-02-28

数字图像处理课程的思维导图

数字图像处理期末复习制作的思维导图,.svg格式,一共有十章内容,分别是:绪论、图像采集、空域增强技术、频域增强技术、图像分割、彩色图像处理、形态学图像处理、图像编码基础、图像编码技术和标准。 简单谈一点我个人对数字图像处理课程的理解:里面学的内容偏向于数学和图像的手工处理,为下一步的工作服务,感觉里面最难的是关于频域的图像,因为一涉及到傅里叶就头大的很。 共勉

2023-02-23

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除