自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 问答 (1)
  • 收藏
  • 关注

原创 2025届八股文:计算机网络高频重点面试题

25届秋招计算机网络八股文,仅供大家参考。

2024-08-21 21:13:03 823

原创 MySQL命令行输入密码后闪退解决方案

使用MySQL8.0的Command,输入密码后闪退,但是如果不输入密码直接回车,却能直接进入MySQL环境;但是均未能解决我的问题。如果有尝试过常见方案但无效的友友,可以试一下本文的方法。原因分析:出现闪退的可能原因是密码错误,但是我明明在安装的时候设置的密码就是这个密码,为什么还会错误呢?某宝大神解答说可能是由于MySQL加密方式导致了安装时虽然设置的密码是123456,但是MySQL存储的密码却不是123456,咱也没学过密码学,咱也不懂。上面的第三条博客有类似的解决方案,可以参考一下。

2024-02-18 18:57:26 2328 5

原创 PyCharm2023.3.2配置conda环境

重点在于Path to conda这一步,需要找到conda.bat这个文件,PyCharm才能识别出现有的conda环境。

2024-02-12 13:06:10 948

原创 【解决方案】TypeError: unhashable type: ‘list‘

今天在测试代码的时候单独摘出来了一段想看看输出结果,结果发现报错TypeError: unhashable type: 'list',找了半天原因,是因为map(function, iter1,...)函数会把输入的可迭代序列中的元素一个一个地传入function,而不是直接将整个iter传进去,就类似于加了一层for循环。根本原因就是map函数是将iter中的元素一个一个传进function的,而不是一下将整个iter传进去。

2023-04-20 17:06:03 571

原创 【HuggingFace】Transformers-BertAttention逐行代码解析

本文基于Hugging Face的2.6.0版本Transformers包中的self-attention实现进行解析,不同版本间略有差异,但无伤大雅。

2023-04-14 15:58:55 1164 2

原创 【CVPR 2023 论文解读】TriDet: Temporal Action Detection with Relative Boundary Modeling

TriDet: Temporal Action Detection with Relative Boundary Modeling

2023-04-04 19:32:01 2634 1

原创 【ACM MM 2022 论文解读】End-to-End Video Object Detection with Spatial-Temporal Transformers

本文提出了第一个基于spatial-temporal Transformer的端到端视频目标检测器TransVOD。简化当前VOD pipeline,有效地消除了许多手工制作的特征聚合组件,如光流模型、relation networks;得益于DETR中object query的设计,本文方法无需使用Seq-NMS等后处理方法。

2023-04-04 12:11:05 1507 1

原创 Python中类的继承、override和super()

Python中类的继承机制、super、override

2023-02-23 09:27:42 366

原创 RepVGG:算法简介及repvgg.py代码解析

Make VGG-Style Great Again !

2022-08-17 12:06:54 3282 3

原创 图神经网络(GNN)简述

本文根据Google Research发布在distill的一篇介绍图神经网络的文章来进行总结。

2022-08-06 09:27:53 11310 2

原创 知识蒸馏:《Distilling the Knowledge in a Neural Network》算法介绍及PyTorch代码实例

知识蒸馏开山之作《Distilling the Knowledge in a Neural Network》算法介绍及PyTorch代码实例

2022-08-02 11:17:26 2375 3

原创 Tricks:Batch Normalization算法原理

《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》是一篇经典文章。关于Batch Normaliation,这个初学者不太好懂,这里做一下总结归纳。

2022-07-29 16:38:01 290

原创 随机种子:random.seed()和torch.manual_seed()的使用与不同

设置随机种子random.seed()和torch.manual_seed()

2022-07-25 16:28:56 1974

原创 Grad-CAM:main_cnn.py源码解析

Grad-CAM main.py代码解析

2022-07-24 09:18:09 734 2

原创 Grad-CAM:utils.py源码解析

Grad-CAM算法代码解析

2022-07-24 09:10:45 1320

原创 Python类与对象:什么是类、类的创建、对象的创建

代码:Python 什么是类及类的创建。

2022-07-23 10:21:49 299

原创 Python:批量修改文件名

利用OS模块批量修改文件名

2022-07-22 16:52:24 186

原创 Python:参数解析器argparse的应用场景

人话介绍argparse的使用方法和具体例子

2022-07-20 10:26:51 985 1

原创 YOLOX:SimOTA算法细节

YOLOX网络中SimOTA正样本分配策略详解

2022-07-16 21:04:55 5823 5

原创 PyTorch:Hook机制在module层面的解读

通俗来讲,hook的作用就是就是在不改变module定义源码的前提下,获取模型某一层的属性。

2022-07-13 22:16:24 976

原创 RDV代码笔记-network.py部分(持续更新)

关于RDV模型官方代码的解析,本文仅记录network.py中一些令人困惑的点,不局限于模型构建、数据处理、编程语法等。

2022-07-13 18:30:07 139

转载 YOLOv5结合轻量化网络MobileNetv3

对YOLOv5网络结构进行修改

2022-07-13 11:14:59 13699 42

原创 Attention Is All You Need笔记(3.2.3节)

Transformer论文笔记

2022-07-06 16:33:17 129

原创 Multi-Head Self-Attention里投影矩阵WQ/WK/WV是否共享的问题

刚从李宏毅老师的Transformer出来,弹幕里关于投影矩阵WQ/WK/WV是否共享已经吵翻,这里写一下自己的看法。

2022-07-06 10:44:39 1743

原创 FCN网络中IntermediateLayerGetter()类解析

看很多人都说这个类的作用是取出return_layers中所指定的层及其输出,这样其实是比较片面的,在FCN中调用这个class的时候这样解释不通,想了半天才想明白。本篇blog也是以FCN中源码来讲的。 首先来看一下在哪里调用了IntermediateLayerGetter()这个类:def fcn_resnet101(aux, num_classes=21, pretrain_backbone=False): # 'resnet101_imagenet': 'https://d...

2022-05-22 21:08:49 631 5

原创 机器学习-k折交叉验证法(python实现)

看了网上的很多k-fold的程序,发现都是机器学习方面的数据操作,而非文件操作(一位不愿意透露姓名的资深大冤种本着“能花钱就不动脑”的原则还付费了几个程序,全是bug,我真的会谢)。然后自己写了一个k-fold的程序,我的数据集是只有两个labels,并且是yolo格式做的标注,所以程序也是按照yolo的文件格式进行编写的,文件夹路径和picknumbers大家可以自己调。注:picknumbers我没有采用int(),因为可能会产生errors(比如你的数据集规模......

2022-04-23 11:01:53 4709

原创 YOLOv5中autoanchor.py的def metric(k)的r = wh[:, None] / k[None]的理解

None用以添加维度,所有GT的wh[:, None],[N, 2]->[N, 1, 2],所有anchor的wh k[None] [M, 2]->[1, M, 2]r: GT的宽高与anchor的宽高的比值,即h/h_a, w/w_a,r.shape=(N, M, 2),r中元素有可能大于1,也可能小于等于1为什么要添加维度:原来的维度是[N, 2]、[M, 2],无法相除,因为不满足广播机制,但是增加维度后就可以满足了广播原则的条件...

2022-03-12 16:41:40 841

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除