自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 Git,github的使用

3.3 在github里面使用他的代码,一般查看运行方法就看readme,他是以一种markdown的语法书写的。其次如果是公司使用,或者工程使用,一定要看license,是否有一定的规定。git简单来说就是一个版本控制软件,他可以保存你每一次commit,该可以一起合作写代码每人一个分支等。3.2 查看历史版本和修改可以点这个小⌚️,他是一个时光机,可以记录你每一次提交的版本,并且可以比对前后两次提交的区别。打开你放代码的文件夹,然后打开终端或者右键的gitbash(推荐,苹果无)。

2023-12-27 10:29:58 449

原创 做个记录:python 项目如何自动生成环境配置文件requirements.txt

1,项目使用requirements.txt的好处任何应用程序通常需要设置安装所需并依赖一组类库来满足工作要求。要求文件是指定和一次性安装包的依赖项具体一整套方法,防止版本不同难以复现或者一个一个安装麻烦。requirements.txt文件格式:2,生成方法作用范围:pip的freeze命令保存了保存当前Python环境下所有类库包,包括那些你没有在当前项目中使用的类库。生成的requirements.txt:速度非常快。

2023-11-02 09:26:38 260

原创 正则表达式提取时间

这个表达式对应的是月份,因为月份是从 1 到 12,但是在正则表达式中,如果数字是个位数,通常会使用 0 开头,例如 "01"、"02" 等。如果想要匹配这两种格式,你需要构建一个更加通用的正则表达式,能够同时匹配 "yyyy-mm-dd" 和 "dd/mm, yyyy" 这两种格式。它表示可以匹配从 "01" 到 "09" 或者从 "10" 到 "12" 的数字。这个正则表达式也只能匹配 "yyyy-mm-dd" 格式的日期,但对于 "31/03, 2016" 这种以斜杠分隔的日期格式同样无法生效。

2023-08-09 21:18:43 593

原创 YOLO相关算法小调研

【简介】受人类学习方式(使用五官,通过常规和潜意识学习,总结丰富的经验并编码存储,进而处理已知或未知的信息)的启发,本篇论文提出了一个统一的网络来同时编码显式知识和隐式知识,在网络中执行了kernel space alignment(核空间对齐)、prediction refinement(预测细化)和 multi-task learning(多任务学习),同时对多个任务形成统一的表示。backbone 和 neck的设计是利用硬件方面的优势,如处理器核心的计算特性,内存带宽等,以进行有效的推理。

2023-07-14 09:25:03 154

原创 栈与队列的联系与区别

队列中的元素称为队列元素,新的元素只能在队列的末尾插入,被称为入队(Enqueue),而队列中最早插入的元素则在队列的前端,被称为队首(front),队首元素只能通过出队(Dequeue)操作移除。3.1. 数据存储方式不同:队列按照先进先出(FIFO)的原则存储数据,新元素插入到队列的末尾,而被删除的元素则是队列中最早的元素,位于队列的开头;栈只允许在栈顶进行插入和删除操作。对于判空,当栈中没有元素时,栈顶指针指向的位置是没有有效数据的,因此可以将栈顶指针初始化为-1,当栈顶指针为-1时,即为栈空。

2023-06-11 10:25:07 1635

原创 论文分享GPPI: structure-aware prediction of protein–protein interactions in rigorous conditions with GNN

本文最大的创新处在于SGPPI网络专注于蛋白质-蛋白质结合界面上的蛋白质斑块,并从残基接触图中提取结构、几何和进化特征来预测PPI,而非使用原有序列和化学性质等一维理化性质作为预测信息。模型采用了一种图卷积神经网络,使用残差接触图形成图结构,定义图结构为G=(V,E),V表示所有的残基,E表示残基-残基接触。:之前看到很多图结构用于表示每个蛋白质互作而形成的图结构,每个节点性质为该蛋白质的性质,此论文使用图表示残差接触,每个节点放氨基酸的信息,是一种启发可以将三级空间结构加入。

2023-06-03 11:44:34 283

原创 BEVFormer看着网上的介绍复述

4:【年终组会汇报——bevformer看了很多B站博主分享】 https://www.bilibili.com/video/BV1hR4y1Y7JK/?2:【手撕BEVFormer(一):如何高效学习】 https://www.bilibili.com/video/BV1rK411o7PS/?论文原文:https://arxiv.org/pdf/2203.17270.pdf 源码地址:https://github.com/fundamentalvision/BEVFormer。

2023-06-02 13:31:27 104

原创 计算机小白刷题计划第三天——赎金信

其中,通过字典记录了 magazine 中每个字符出现的次数,并遍历了 ransomNote 的每个字符,检查它是否存在于字典中且数量大于 0。如果存在且数量大于 0,则将字典中相应字符的数量减少 1,表示该字符已经被使用;最后,如果遍历完了所有 ransomNote 的字符,都能够在字典中找到且数量大于 0,则说明可以构建 ransomNote,返回 True。我并不会,因此查看了答案,其采用了字典的结构,键为字母,值为该字母出现的数量,只要一个可以在字典中查询到,那么就删除一个数量。

2023-04-03 13:41:39 40

原创 计算机小白刷题计划第三天——链表的中间结点

方法接收一个链表的头结点作为输入参数。该方法使用快慢指针的思想来寻找链表的中间结点,即初始化慢指针和快指针都指向头结点,快指针每次走两步,慢指针每次走一步,当快指针到达链表末尾时,慢指针即为链表的中间结点。对于此代码,时间复杂度为O(n),其中 n 是链表的长度。因为快指针和慢指针分别走过链表的一半,所以时间复杂度是线性的。空间复杂度为 O(1),因为只用到了常数个指针变量来存储快慢指针,不需要额外开辟空间。如果有两个中间结点,则返回第二个中间结点。,请你找出并返回链表的中间结点。表示此结点的下一个结点。

2023-03-31 13:24:33 107

原创 计算机小白刷题计划第二天——最富有客户的资产总量

它只需要遍历一次 accounts 列表,而不是两次,因此时间复杂度为 O(n),其中 n 表示 accounts 列表中所有元素的数量之和。这段代码的时间复杂度为 O(n^2),其中 n 表示 accounts 列表中所有子列表元素的个数之和。在最坏情况下,需要遍历二维列表中的每个元素,因此时间复杂度为 O(n^2)。空间复杂度同样为 O(n),因为我们创建了一个新的列表 wealth 来存储每个用户的账户余额总和,它的长度等于 accounts 中所有元素的数量之和,即 n。在方法中,我们遍历整个。

2023-03-30 12:29:28 52

原创 计算机小白入门课之数据结构基础——时间复杂度,空间复杂度

时间复杂度和空间复杂度是算法分析的重要内容,判断一个是否可行,都需要考虑这的大小。1,时间复杂度:用来描述算法的执行时间,也就是代码运行的时间。通常用“大 O 记法”(Big O Notation)表示,表示算法执行时间与问题规模之间的增长关系,即在最坏情况下,算法执行的时间复杂度是多少。时间复杂度越小,算法的效率就越高。注意O(1+3n)=O(n),因为只计算n趋于无限大的情况,1可以省略。2,空间复杂度:通常用来描述算法所占用的内存空间大小。

2023-03-29 22:32:07 1056

原创 计算机小白刷题计划第一天

在 while 循环中,每次执行都会将 num 除以2或减去1,因此,在最坏情况下,num 要经过 log2(num) 次操作变成0。的奇偶性,如果是偶数就除以2,否则就减1,同时记录执行的步骤数。步骤 1) 14 是偶数,除以 2 得到 7。步骤 3) 6 是偶数,除以 2 得到 3。步骤 5) 2 是偶数,除以 2 得到 1。步骤 2) 7 是奇数,减 1 得到 6。步骤 4) 3 是奇数,减 1 得到 2。步骤 6) 1 是奇数,减 1 得到 0。这段代码的时间复杂度为O(log n)。

2023-03-29 21:16:01 36

原创 NLP中常用的文本编码方式:onehot,word2vect,embedding

假设我们给定的训练语料只有一句话: Hope can set you free (愿你自由成长),窗口大小为3,因此模型的第一个训练样本来自Hope can set,因为是CBOW模式,所以将使用Hope和set作为输入,can作为输出,在模型训练时, Hope,can,set等词汇都使用它们的one-hot编码. 如图所示: 每个one-hot编码的单词与各自的变换矩阵(即参数矩阵3x5, 这里的3是指最后得到的词向量维度)相乘之后再相加, 得到上下文表示矩阵(3x1).["我", "喜欢", "你"]

2023-03-29 15:32:41 964

原创 Tansformer-GPT-1,GPT-2,GPT-3,BERT&Instruct-GPT简介

在多头注意力机制中,输入序列首先通过多个不同的线性层,分别映射到不同的维度空间中,然后对这些维度空间中的表示进行自注意力计算,得到多组加权表示。该方法使用了大规模的无监督数据进行预训练,并且在预训练的同时,还对多个任务进行了微调,从而使得模型可以同时完成多个任务。模型的基本结构,但在预训练和微调策略、模型规模、语料库选择等方面有所不同,因此在各自的应用场景中表现出了不同的优缺点。,这一系列预训练语言模型在文本生成、文本分类、问答系统等多个领域都有出色的表现,甚至已经超越了人类在某些任务上的表现。

2023-02-28 21:39:35 604

原创 NLP论文阅读:Large language models generate functional protein sequences across diverse families

ProGen可以进一步微调到策展序列和标签,以提高来自具有足够同源样本的家族的蛋白质的可控生成性能。:受基于深度学习的自然语言模型的成功启发,我们在大型文本语料库上训练,生成具有不同主题和情感的现实文本24 - 28,我们开发了ProGen,这是一种蛋白质语言模型,在数百万个原始蛋白质序列上训练,生成跨多个家族和功能的人造蛋白质。:在蛋白质家族的一些序列数据可用的常见情况下,我们可以使用针对特定家族序列的微调预训练语言模型的技术,进一步提高ProGen捕获对应于蛋白质家族的局部序列邻域分布的能力。

2023-02-18 09:30:34 811 1

原创 论文阅读——Efficient and Robust 2D-to-BEV RepresentationLearning via Geometry-guidedKernel Transformer

在这项工作中,我们提出了一种几何引导的核T转换器(GKT),一种新的2D-to-BEV表示学习机制。第二种方式便是端到端,考虑了图像与BEV之间的完全相关性,多视图图像特征被平化,每个BEV网格与所有图像像素交互。对于正在运行的自动驾驶系统,外部环境是复杂的。该论文是在Cross View Transformer的基础上引入LUT(位置查找表)而改进的,主要是现在轻量级显卡上部署的bev试图转换并进行检测达到实时分割结果。视角下并非单纯的视角变换,而是特征的变换,只要保留关键特征,因此只要将特征映射至。

2023-02-13 21:51:57 551

原创 论文阅读——Fast-BEV: A Fast and Strong Bird’s-Eye ViewPerception Baseline

考虑到在构建感知系统时,摄像机位置及其内/外参数是固定的,并且该论文的方法不使用依赖数据的depth predicate和Transformer,因此对于每个输入,各个摄像头的投影指数都是相同的。如下图所示,是填充密集体素的鸟瞰图。我们的方案不像基于lift - splash - shoot的改进视图转换方案,其离散深度,然后估计深度,即使加上繁琐的CUDA并行计算,速度也不够快,更不用CPU来进行相应的计算过程,在GPU上的耗时可以忽略不计,在CPU上的速度远远领先于其他方案,部署非常方便。

2023-02-11 15:05:09 955 1

原创 MMLAB库学习

上面展现了模型的结构,主干backbone使用的是ResNet网络,18层,一共4块,输出的是第4个(0,1,2,3),3对应的是4.style对应的是,我也不太清楚。只知道有pytorch 3*3,和cafe1*1,stride均为2.下面是neck,一般来说,我们对模型进行改进就是对neck进行改进,这里采用的是全局平均池化,后面的是头,由于我们这里是分类故使用全连接做分类。其仅仅写出了一个框架,均为继承关系,因此不会有大片两的代码,共分为4个文件,分别是模型,数据,迭代策略,保存等打印配置。

2023-02-04 20:20:58 2165

原创 pytorch2.2——完整网络练习

本次练习使用torchvision下载 cifar10数据步骤为:1定义卷积神经网络2定义损失函数3在训练集上训练模型4在测试集上测试模型5更改GPU训练下面定义卷积神经网络Net()下面定义损失函数CPU训练模型部分结果保存模型参数跑测试集,先用一个batch测试可以看到,第四个预测错了,下面在所有集合上进行测试10000张测试图片的网络准确率:55 %

2023-01-04 22:54:28 119

原创 2.1 使用pytorch构建一个神经网络

定义一个拥有可学习参数的神经网络。2,pytorch推荐使用方法。处理输入数据使其流经神经网络。将网络参数的梯度进行反向传播。以一定的规则更新网络的权重。构建神经网络的典型流程。

2023-01-04 13:08:34 224

原创 pytorch学习1.2——求导梯度练习

求导主要用到的方法是.requires_grad() ,将其设置为True则其相关的变量会构成一个求导网,记录其过程,这个方法会追踪记录定义在这个变量上的所有操作,然后调用.backward()就可以自动计算梯度,在这个Tensor上的所有梯度就会加进属性.grad中。############L的反向传播#########################L的反向传播#############

2023-01-03 19:45:18 135

原创 pytorch学习1.1-基本语法

关于cuda tensor:tensor可以用to()方法将其移动到任意设备上。pytorch 与 tensor和 numpy 中 array转换。身不包含确切的值,内存中有啥就赋值啥,含无意义但不空。通过已有的一个张量创建一个相同尺寸的新张量。全0矩阵,且字符类型为long。张量的基本运算,以加法为例。创建一个有初始化的矩阵。直接通过数据创建张量。

2023-01-03 00:01:36 62

原创 出现OSError: [Errno 24] Too many open files错误解决方法。

出现OSError: [Errno 24] Too many open files错误解决方法。

2022-12-14 17:15:09 7950 1

原创 Geometry-guided Kernel Transformer ——GKT代码复现

Geometry-guided Kernel Transformer ——GKT代码复现记录

2022-12-09 16:31:58 1174 2

原创 复现BEVDet

部分bevfusion

2022-12-09 15:57:54 2207 10

原创 统计计算作业:

统计计算作业2

2022-11-30 14:46:15 51

原创 统计计算作业:

第一种方法:c=1/2,g(x)=x/2。第一种方法:c=1,g(x)=x。

2022-11-28 20:32:01 47

原创 统计计算作业:

第一种方法:c=1/2,g(x)=x/2。第一种方法:c=1,g(x)=x。

2022-11-28 20:24:55 156

原创 统计计算作业:

第一种方法:c=1/2,g(x)=x/2。第一种方法:c=1,g(x)=x。

2022-11-28 20:24:08 62

原创 统计计算作业

统计计算作业

2022-11-28 20:23:40 121

原创 SCADC-

本期为大家分享一篇较新的文章:“Scene Completeness-Aware Lidar Depth Completion for Driving Scenario”。作者构建一个传感器融合网络,将基于双目视差得到的深度图和雷达形成的稀疏补全深度图融合,利用上层场景更结构化的立体匹配得到的深度,以及激光雷达完成的更高精度的深度,生成场景完备性感知和精确的深度图。 无人驾驶在室外深度传感方面具有较高的精度和实用性,通常采用激光雷达作为主要的深度采集传感器。然而,激光雷达扫描仅限于扫描空间线数量和空间分辨率

2022-07-21 19:45:14 937

两个时间序列数据练习,大家试试

两个时间序列数据练习,大家试试

2022-12-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除