pytorch学习
文章平均质量分 58
UQI-LIUWJ
这个作者很懒,什么都没留下…
展开
-
pytorch 笔记:torch.optim.Adam
【代码】pytorch 笔记:torch.optim.Adam。原创 2024-07-22 20:08:14 · 1222 阅读 · 0 评论 -
pytorch 笔记:torch.optim(基类的基本操作)
这在微调预训练网络时特别有用,例如当你决定解冻某些层,让它们在训练过程中变得可训练,并需要被优化器管理。这是大多数优化器支持的简化版本。一旦使用例如 backward() 计算了梯度,就可以调用该函数。这个字典指定了应该被优化的张量(Tensors),以及与该参数组相关的特定优化选项。假设有一个已经训练的模型,现在在特定的epoch之后,要解冻最后几层以进行微调。所有优化器都实现了一个 step() 方法,用于更新参数。这些选项可以包括学习率 (原创 2024-07-22 19:58:10 · 545 阅读 · 0 评论 -
pytorch笔记:named_parameters
可以使用。原创 2024-06-26 11:04:02 · 517 阅读 · 0 评论 -
机器学习/pytorch笔记:time2vec
【代码】机器学习/pytorch笔记:time2vec。原创 2024-06-25 11:32:19 · 568 阅读 · 0 评论 -
pytorch 笔记:应用:根据内积结果评估模型预测准确性
具体来说,有以下数据:张量a(大小为 40x10),包含 40 个位置的embedding(每个位置的embedding维度为10)。张量b(大小为 4x10),包含一个batch中4个预测位置的embedding。张量c(大小为 4x1),包含四个ground-truth位置的索引。任务是对于b中的每个位置,计算它与a中所有40个位置的embedding的内积,然后选取内积值最高的10个位置。接下来,检查c中的ground-truth位置索引是否在这10个最高内积位置中。原创 2024-06-24 14:48:53 · 317 阅读 · 0 评论 -
pytorch笔记:清理GPU内存
用top/htop找到相应程序的PID,再使用 kill 结束该进程。可以清理任何先前运行的程序可能遗留的未释放内存。原创 2024-06-19 14:51:21 · 1192 阅读 · 0 评论 -
pytorch 笔记:torch.dist
时,这表示使用曼哈顿距离(或 L1 范数)。(无穷大)可以用来计算切比雪夫距离。计算距离时使用的范数的阶数。,这表示使用欧几里得距离。原创 2024-06-14 16:28:49 · 399 阅读 · 0 评论 -
torchvision笔记 torchvision.ops.sigmoid_focal_loss
会退化成普通的二元交叉熵损失(Binary Cross Entropy, BCE)权重因子,范围在 (0,1) 之间,用于平衡正负样本。存储每个元素的二分类标签(0表示负类,1表示正类)'none'、'mean' 或 'sum'。与 inputs 形状相同的浮点张量。'none' 表示对输出不进行约简;'mean' 表示将输出取平均;当 =α=1 且 γ=0= 时,'sum' 表示将输出求和。默认为 'none'原创 2024-06-11 16:11:31 · 383 阅读 · 0 评论 -
pytorch 笔记:pytorch 优化内容(更新中)
时,PyTorch 会在程序第一次执行每种卷积配置时启用一个自动调优器,这个调优器通过实际运行不同的卷积算法来测试它们的性能。(默认值)时,PyTorch/cuDNN 会选择一个合适的、通用的卷积算法来执行操作,而不会根据具体的网络配置进行优化。这是因为一旦为每种卷积配置选择了最优算法,就不需要再进行调整,每次执行同样的卷积操作都会使用这一最优算法。然后,它选择最快的算法,并在后续的训练过程中使用这一算法。这个“基准测试”过程只在第一次遇到新的卷积配置时进行。原创 2024-06-08 17:40:14 · 985 阅读 · 0 评论 -
pytorch笔记:自动混合精度(AMP)
输入为半精度(FP16),输出为全精度(FP32)原创 2024-06-03 14:30:52 · 1867 阅读 · 0 评论 -
pytorch笔记:topk
返回给定输入张量沿指定维度的最大的 k 个元素dimlargestFalsedimsortedTrue。原创 2024-05-29 10:11:13 · 381 阅读 · 0 评论 -
pytorch笔记:torch.nn.Flatten()
将一个连续的维度范围扁平化为一个张量start_dimend_dim。原创 2024-05-26 11:07:26 · 327 阅读 · 0 评论 -
pytorch笔记nn.functional.one_hot & 衍生(有一个padding对应的全零向量)
接收一个包含索引值的 LongTensor,形状为(),并返回一个形状为(, num_classes)的张量,该张量在所有位置都是零,除了在输入张量对应值的索引位置处为1。(int) – 总类别数。如果设置为-1,则类别数将被推断为输入张量中最大类别值加一。num_classes必须比tensor中出现的数字多,否则会报错。原创 2024-05-19 16:04:21 · 387 阅读 · 0 评论 -
pytorch笔记:ModuleDict
nn.Module。原创 2024-05-03 16:00:32 · 420 阅读 · 0 评论 -
pytorch笔记:ReplicationPad1d
可以是一个整数或一个元组。,那么填充后的序列将是。被复制了两次,右边的。原创 2024-05-03 15:48:17 · 773 阅读 · 0 评论 -
pytorch 笔记:dist 和 cdist
计算两个Tensor之间的p-范数。原创 2023-12-09 16:58:05 · 1322 阅读 · 0 评论 -
t2vec 辅助笔记:evaluate.py
【代码】t2vec 辅助笔记:evaluate.py。原创 2023-11-03 08:50:59 · 299 阅读 · 4 评论 -
pytorch 笔记:torch.nn.utils.clip_grad_norm_
用于防止在训练神经网络时出现梯度爆炸的问题。梯度裁剪通过限制梯度的范数来防止梯度的值变得过大。原创 2023-11-02 17:28:06 · 389 阅读 · 0 评论 -
pytorch笔记:split
是 PyTorch 中的一个函数,用于将张量按指定的大小或张量数量进行分割。原创 2023-11-02 15:21:37 · 959 阅读 · 0 评论 -
论文辅助笔记:t2vec models.py
从指定的路径加载预训练的词嵌入权重,并将这些权重复制到模型中的。原创 2023-11-02 14:27:14 · 301 阅读 · 0 评论 -
pytorch笔记:allclose,isclose,eq,equal
是一个PyTorch函数,用于检查两个张量是否在某个容忍度范围内近似相等otherrtolatolequal_nan。原创 2023-11-02 14:29:53 · 2394 阅读 · 0 评论 -
论文辅助笔记:T2VEC一个疑虑:stackingGRUCell和GRU的区别在哪里?
nn.GRUhnseq_lenhnseq_lenhnGRUCell如果seq_len为1,那么nn.GRU的hn和的hn应该是相同的?原创 2023-11-01 21:56:42 · 830 阅读 · 0 评论 -
pytorch 笔记:GRU
在多层GRU中,第 l 层的输入(对于 l≥2)是前一层的隐藏状态乘以概率 dropout。原创 2023-11-01 20:47:22 · 1560 阅读 · 0 评论 -
pytorch笔记:PackedSequence对象送入RNN
使用的主要好处是。因为通过跳过填充部分,RNN不需要在这些部分进行无用的计算。这特别对于处理长度差异很大的批量序列时很有帮助。原创 2023-11-01 20:22:30 · 1218 阅读 · 0 评论 -
pytorch 笔记:PAD_PACKED_SEQUENCE 和PACK_PADDED_SEQUENCE
对一个已打包的序列进行解包,这个打包的序列通常是通过。设置为False,输入序列将无条件地被排序。,序列应该按长度降序排列。函数从一个填充的序列得到的。还是之前的packed。原创 2023-11-01 16:51:07 · 573 阅读 · 0 评论 -
pytorch笔记:TRIPLETMARGINLOSS
【代码】pytorch笔记:TRIPLETMARGINLOSS。原创 2023-10-28 23:13:58 · 877 阅读 · 0 评论 -
pytorch 笔记:KLDivLoss
对于具有相同形状的张量 ypred 和 ytrue(ypred 是输入,ytrue 是目标),定义逐点KL散度为:为了在计算时避免下溢问题,此KLDivLoss期望输入在对数空间中。如果log_target=True,则目标也在对数空间。原创 2023-10-28 22:38:24 · 935 阅读 · 0 评论 -
pytorch 笔记:index_select
是 PyTorch 中的一个非常有用的函数,允许从给定的维度中选择指定索引的张量值一个 1D 张量,包含你想要从dim维度中选择的索引此张量应该是LongTensor类型一个可选的参数,用于指定输出张量。如果没有提供,将创建一个新的张量。原创 2023-10-28 19:12:37 · 2107 阅读 · 0 评论 -
pytorch笔记:torch.norm
默认情况,Frobenius范数。原创 2023-03-29 14:23:13 · 140 阅读 · 0 评论 -
pytorch 笔记:torch.fft
进行一个维度的快速傅里叶变换。原创 2023-03-06 16:04:25 · 4068 阅读 · 0 评论 -
pytorch笔记 torchviz
画出pytorch的流程图。原创 2023-02-26 14:48:45 · 544 阅读 · 0 评论 -
pytorch 笔记:VAE 变分自编码器
使用BCE计算重构误差。原创 2023-01-31 16:32:26 · 444 阅读 · 1 评论 -
pytorch 笔记:torch.nn.init
这个在后面的一些nn.init初始化中会用到。原创 2023-01-20 19:46:12 · 1196 阅读 · 0 评论 -
pytorch笔记:nn.MultiheadAttention
embed_dim模型的维度num_headsattention的头数(embed_dim会平均分配给每个头,也即每个头的维度是embed_dim//num_heads)dropoutattn_output_weights的dropout概率biasinput和output的投影函数,是否有biaskdimk的维度,默认embed_dimvdimv的维度,默认embed_dimTrue——输入和输出的维度是(batch_num,seq_len,feature_dim)原创 2022-10-04 09:54:03 · 3686 阅读 · 0 评论 -
pytorch笔记 meshgrid
【代码】pytorch笔记 meshgrid。原创 2022-09-25 04:43:31 · 445 阅读 · 0 评论 -
机器学习/pytorch笔记 池化
随机池化对特征图中的元素按照其概率值大小随机选择,即元素值大的被选中的概率也大,而不像max-pooling那样,永远只取那个最大值元素,这使得随机池化具有。输入为(N,C,Lin) or(C,Lin),输出为(N,C,Lout) or (C, L_{out}),其中Lout=output_size.混合池化优于传统的最大池化和平均池化方法,并可以解决过拟合问题来提高分类精度。每个元素值表示对应位置处值的概率,现在只需要按照该概率来随机选一个。λ是0或1的随机值,表示选择使用最大池化或平均池化。原创 2022-09-24 13:39:23 · 1423 阅读 · 0 评论 -
pytorch 笔记:model.apply
—在每个子模组递归地执行func。——一般用于初始化参数中。原创 2022-09-23 21:07:02 · 484 阅读 · 0 评论 -
pytorch 笔记:DDPG (datawhale 代码解读)
理论部分可见:强化学习笔记:双延时确定策略梯度 (TD3)_UQI-LIUWJ的博客-CSDN博客源代码路径:easy-rl/codes/DDPG at master · datawhalechina/easy-rl (github.com)1.2 Config 类——一些环境变量和算法变量的配置1.3 env_agent_config函数——设置环境和智能体1.4 train 1.5 test 1. 6 main 函数部分2 ddpg.py2.原创 2022-07-14 16:35:09 · 2240 阅读 · 2 评论 -
ray-tune 笔记 核心概念
Trainable 是一个传递给 Tune 的对象。Ray Tune 有两种定义可训练对象的方法, Function API 和 Class API。 假设我们想要优化一个简单的目标函数,例如 ,其中 a 和 b 是我们想要调整以最小化目标的超参数。 由于目标也有一个变量 x,我们需要测试不同的 x 值。 给定 a、b 和 x 的具体选择,我们可以评估目标函数并获得最小化分数。创建一个接收超参数字典的函数(在下面的例子中是trainable函数,pytorch 笔记:使用Tune 进行调参_UQI-LIUW原创 2022-07-09 17:50:46 · 2460 阅读 · 0 评论 -
pytorch 笔记:validation ,model.eval V.S torch.no_grad
模型为model,优化器为optimizertest的时候,就可以加载这个最佳模型对应的参数(model.load_state_dict),进行测试在PyTorch中进行validation时,使用他们均可切换到测试模式。eg,对于dropout层和batchnorm层:**with torch.zero_grad()**则停止autograd模块的工作,也就是停止gradient计算,以起到加速和节省显存的作用,从而节省了GPU算力和显存,但是并不会影响dropout和batchnorm层的行为。(原创 2022-06-29 21:47:34 · 945 阅读 · 0 评论