深度学习
文章平均质量分 90
一只小百里
热爱编程的菜鸟
展开
-
论文学习——CoLA: Weakly-Supervised Temporal Action Localization with Snippet Contrastive Learning
弱监督时间动作定位(WSTAL)的目的是在只有视频级标签的未修剪视频中定位动作。现有的模型大多遵循“通过分类进行定位”的程序:定位对视频级分类贡献最大的时间区域。通常,它们单独处理每个代码片段(或帧),从而忽略了富有成效的时间上下文关系。这里出现了单片段作弊问题:“硬”片段太模糊,无法分类。在本文中,我们认为通过比较来学习有助于识别这些硬片段,并且我们建议利用片段对比学习来定位动作,简称CoLA。原创 2023-09-26 15:37:30 · 201 阅读 · 0 评论 -
pytorch学习——LSTM和GRU
LSTM(长短期记忆网络)和GRU(门控循环单元)是两种常用的改进型循环神经网络(RNN),用于解决传统RNN中的长期依赖性和梯度消失/梯度爆炸等问题。LSTM和GRU都通过引入门控机制和记忆单元来增强RNN的建模能力,并有效地捕捉长期依赖性。它们具有类似的结构,但在门控机制的设计和计算复杂度上有所不同。原创 2023-09-08 10:39:11 · 588 阅读 · 0 评论 -
pytorch学习——循环神经网络RNN讲解及其实现
循环神经网络RNN(Recurrent Neural Network )是一类广泛应用于序列数据建模和处理的神经网络模型。相比于传统的前馈神经网络,RNN在处理序列数据时引入了时间维度的循环连接,使得网络能够保持对先前信息的记忆和上下文依赖。RNN的一个关键特点是其内部的循环结构,允许信息在网络中进行传递和交互。在RNN中,每个时间步的输入不仅包括当前时间步的输入数据,还包括前一时间步的隐藏状态(hidden state)。原创 2023-09-07 20:31:35 · 1124 阅读 · 1 评论 -
vision transformer 详解
在 "An Image Is Worth 16x16 Words: Transformers For Image Recognition At Scale" 论文的实验部分,与其他方法相比,该方法取得了以下突破性的成果:在大规模图像分类任务上超越传统方法:论文中的方法在 ImageNet-1K 数据集上进行了实验,并与传统的卷积神经网络(CNN)进行了比较。结果显示,该方法在准确性方面超越了传统的CNN模型,取得了更好的图像分类性能。大规模预训练模型的有效性:论文中的方法使用大规模的图像数据集进行了预训练,原创 2023-09-07 10:56:01 · 288 阅读 · 0 评论 -
论文翻译——TSN——Temporal Segment Networks: Towards Good Practices for Deep Action Recognition
Temporal Segment Networks: Towards Good Practices for Deep Action Recognition》是由Limin Wang等人于2016年在European Conference on Computer Vision(ECCV)上发表的论文。该论文介绍了一种名为Temporal Segment Networks(TSN)的模型,旨在改善视频动作识别任务的性能,并提出了一些优化实践方法。原创 2023-09-06 20:49:38 · 189 阅读 · 0 评论 -
pytorch学习——卷积神经网络——以LeNet为例
见上。原创 2023-08-03 20:11:21 · 1273 阅读 · 0 评论 -
pytorch学习——如何构建一个神经网络——以手写数字识别为例
神经网络是一种计算模型,它模拟了人类神经系统的工作方式,由大量的神经元和它们之间的连接组成。原创 2023-08-02 16:23:33 · 1232 阅读 · 0 评论 -
pytorch学习——正则化技术——丢弃法(dropout)
引入Fashion-MNIST数据集。我们定义具有两个隐藏层的多层感知机,每个隐藏层包含256个单元。将暂退法应用于每个隐藏层的输出(在激活函数之后), 并且可以为每一层分别设置暂退概率: 常见的技巧是在靠近输入层的地方设置较低的暂退概率。下面的模型将第一个和第二个隐藏层的暂退概率分别设置为0.2和0.5, 并且暂退法只在训练期间有效。#定义两个隐藏层,每个隐藏层有256个单元dropout1, dropout2 = 0.2, 0.5 # 为每个隐藏层设置一个 dropout 概率。原创 2023-08-01 09:54:48 · 2615 阅读 · 0 评论 -
pytorch学习——正则化技术——权重衰减
权重衰减是通过L2正则项使得模型参数不会过大,从而控制复杂度~正则项权重是控制模型复杂度的超参数下面的代码将模型拟合训练数据集,并在测试数据集上进行评估。函数的具体实现如下:首先通过init_params()函数初始化模型参数w和b。定义net函数为线性回归模型,loss为平方损失函数。设置训练的轮数num_epochs和学习率lr,同时创建一个可视化工具animator,用于可视化训练过程中的损失值。原创 2023-07-31 18:44:13 · 3401 阅读 · 0 评论 -
pytorch学习——模型选择
模型选择的目标是在给定的数据集上找到一个性能最好的模型,同时避免欠拟合和过度拟合。原创 2023-07-28 16:30:49 · 436 阅读 · 0 评论 -
pytorch学习——多层感知机
pytorch学习——多层感知机原创 2023-07-26 20:08:39 · 658 阅读 · 0 评论 -
pytorch学习-线性神经网络——softmax回归+损失函数+图片分类数据集
softmax回归是一个多分类分类模型使用softmax操作得到每个类的预测置信概率,非负且和为1。原创 2023-07-26 17:12:47 · 871 阅读 · 0 评论 -
pytorch学习——线性神经网络——1线性回归
概要:线性神经网络是一种最简单的神经网络模型,它由若干个线性变换和非线性变换组成。线性变换通常表示为矩阵乘法,非线性变换通常是一个逐元素的非线性函数。线性神经网络通常用于解决回归和分类问题。原创 2023-07-26 11:06:24 · 1828 阅读 · 0 评论 -
pytorch学习日志——张量,广播机制,索引与切片
在 PyTorch 中,张量(Tensor)是一种多维数组,可以用来表示各种类型的数据,例如图像、音频、文本等。张量具有以下特点:多维数组:张量可以表示任意维度的多维数组,例如标量(0 维)、向量(1 维)、矩阵(2 维)等。张量运算:张量支持各种数学运算,例如加法、减法、乘法、除法等,还支持逐元素运算、矩阵运算、广播运算等。自动求导:张量支持自动求导,可以方便地进行反向传播算法,用于训练深度学习模型。支持 GPU 计算:张量支持在 GPU 上进行计算,可以大幅提高计算速度。在。原创 2023-07-21 11:04:47 · 545 阅读 · 0 评论