自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 OadTR

先对视频流进行特征提取并坍塌空间维度到一维的特征序列并接一个全连接层将特征映射到D维得到token序列,在编码器中,对这些token序列,我们扩展到一个可学习的tokenclass,并得到组合的{token,tokenclass}特征序列,tokenclass是用于学习和在线行为检测任务相关的全局的判别性特征,对于没有tokenclass的行为更加偏向于某一帧(第一帧的类别),但是tokenclass会通过自适应的交互来获取最合适的行为类别。然而,这种RNN-like的架构存在。并且已有的工作已经证明,

2023-09-13 13:44:23 118

原创 【无标题】

BERT框架两个步骤:预训练和微调。

2023-08-18 09:45:44 87 1

原创 VGG网络的学习

Alexnet最大的问题在于长得不规则,结构不甚清晰,也不便于调整。想要把网络做的更深更大需要更好的设计思想和标准框架。直到现在更深更大的模型也是我们努力的方向,在当时AlexNet比LeNet更深更大得到了更好的精度,大家也希望把网络做的更深更大。选择之一是使用更多的全连接层,但全连接层的成本很高;第二个选择是使用更多的卷积层,但缺乏好的指导思想来说明在哪加,加多少。最终VGG采取了将卷积层组合成块,再把卷积块组合到一起的思路。 VGG块可以看作是AlexNet思路的拓展,AlexNet中将

2023-08-11 12:36:31 101 1

原创 对交叉熵的理解

②概率的取值范围在[0,1],将公式中的负号移动到对数函数中,就变成了概率的倒数;概率的倒数会大于1,且概率越小,倒数越大。③计算机是二进制的,对于以2为底的对数函数,意思为此时函数的倒数是2的几次方。⑤对于不同的 Xi 取值,重要性也不同 ,因此加权平均求分布的期望。(横坐标表示随机变量可能的结果,纵坐标表示每一个结果可能的概率)1.当p和q相同时,交叉熵就是熵,即信息论中所说的最优编码长度,p:数据的真实概率分布 q:网络模型的输出分布。熵:不确定性的量度(基于概率分布的不确定性)

2023-08-02 13:11:38 88

原创 PyTorch相关运算

【代码】PyTorch相关运算。

2023-07-26 18:35:24 172 1

原创 作业3(五十道)

给出二叉 搜索 树的根节点,该树的节点值各不相同,请你将其转换为累加树(Greater Sum Tree),使每个节点 node 的新值等于原树中大于或等于 node.val 的值之和。返回以该节点为根的子树。一个树的 节点的坡度 定义即为,该节点左子树的节点之和和右子树节点之和的 差的绝对值。给定一个二叉搜索树的根节点 root 和一个值 key,删除二叉搜索树中的 key 对应的节点,并保证二叉搜索树的性质不变。如果一个节点有两个子节点的话,那么该节点的值等于两个子节点中较小的一个。

2023-07-22 20:16:48 64

原创 学习观观后感

大一开学的第一节课,老师讲到了字节、字符、二进制、十进制,可以说是大学的第一节课就让我心凉了,仿佛看到了与周围同学的差距,下课我对着书上进制转化的方法一个个地把100以内的数字所以进制计算出来,试图通过死记硬背记住他们,但这是徒劳的。当然在今后的三年里,类似的弯路我走过了太多太多,今天看到了这样的视频,我觉得博主是一个真正把科学贯彻到行为的人,视频带来的理解在大多数方面是远超文字的。真的是有一种如遭雷击的感觉,推翻了我之前所有的学习观,特别是我以前认为记忆就是最好的学习武器。新生报道,第一课,交作业。

2023-07-14 20:44:09 43

原创 最长回文子串

【代码】最长回文子串。

2023-07-13 10:29:34 78 1

原创 【无标题】

19.删除链表中的倒数第N个结点。430.扁平化多级双向链表。24.两两交换链表中的节点。237.删除链表中的结点。203.移除链表元素。

2023-07-05 20:01:52 101 1

原创 python学习笔记

自己整理的python基础知识笔记

2023-01-02 20:55:57 95 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除