自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 uart的基本组成与实现

异步、全双工、串行通信协议发送:将并行数据转换为串行数据进行传输接收:将串行数据转换为并行数据:发送、接收方使用各自的时钟控制数据的收发:数据可以同时双向传输。

2024-05-10 12:04:40 428

原创 FIFO深度计算

首先明确FIFO的几个作用:1、缓存一定量的数据;2、进行异步跨时钟域传输处理;3、进行位宽匹配其实FIFO最大的作用就是。既然是缓冲,那么就要知道这个缓存的空间到底需要多大。为了保证FIFO的大小,要考虑FIFO传输的最坏情况,即:写速率(fA)最大,读速率(fB)最小;而这种情况一般考虑突发传输,连续无止境的读写不考虑,比如写时钟100M,读时钟50M,无限制的读写,则FIFO的深度就只能是无穷大。在整个宏观时域上,写的数据=读的数据,这是大前提。

2024-05-09 12:38:56 1309

原创 FIFO学习

读和写应用同一个时钟。它的作用一般是做交互数据的一个缓冲,也就是说它的主要作用就是一个buffer。,读写应用不同的时钟,它有两个主要的作用,

2024-05-08 13:43:07 1060

原创 状态机学习

一个always块,既描述状态转移,又描述状态的输入输出,当前状态用寄存器输出; 两个always块,时序逻辑与组合逻辑分开,一个always块采用同步时序描述状态转移;另一个always块采用组合逻辑判断状态转移条件,描述状态转移规律以及输出,当前状态用组合逻辑输出,可能出现竞争冒险,产生毛刺,而且不利于约束,不利于综合器和布局布线器实现高性能的设计;(当然,第二个always里的状态跳转和输出可以拆分用组合逻辑描述,也可能有三个always块,但是这并不是三段式,和三段式的区别在于输出到底

2024-05-06 13:32:36 427

原创 Verilog有符号和无符号数的饱和与截尾

数据截位中常用的算法是四舍五入,当某个模块的输出为8bit,后一个模块只能接收5bit时,此时就需要对数据进行截位处理,即可对数据进行四舍五入。数据饱和:当数据大于我们设定的最大值时,输出数据=最大值;当数据小于所设定的最小值时,输出数据=最小值。在学习FIR滤波器时,遇到饱和、截位,以此记录学习。

2024-04-25 17:15:30 397

原创 升余弦滚降滤波器与平方根升余弦滤波器

第一定律:在带宽为 B 的信道上传送码元时,要想实现无码间串扰,码元速率 Rs不能超过 2 倍的带宽。即: R s ≤ 2 B ,要达到最高传输速率(奈奎斯特速率) 2B, 必须使用带宽为 B 的理想低通滤波器进行滤波。奈奎斯特第一准则,就是针对码间串扰问题的。应用在 “映射,脉冲称性” 模块和 “抽样判决” 模块。我们以Ts 的采样时间间隔对这个模拟信号采样,根据采样的值,来判断它是哪一个码元。

2023-11-12 14:08:49 2945

原创 FIR滤波器和IIR滤波器的区别

FIR滤波器传递函数的极点固定在原点,是不能动的,它只能靠改变零点位置来改变它的性能。对于同样的滤波器设计指标,FIR滤波器所要求的阶数可能比IIR滤波器高5-10倍,结果,成本较高,信号延时也较大;因此可用较低的阶数获得高的选择性,所用的存储单元少,计算量小,效率高。对于IIR滤波器,冲激响应理论上应会无限持续,其输出不仅取决于当前和过去的输入信号值,也取决于过去的信号输出值。即IIR的相位延迟会随着输入波形的变化而变化,而FIR的相位延迟为一确定值。FIR的极点全部在原点(z变换),是稳定的。

2023-11-11 14:58:25 483 1

原创 理解信噪比SNR,Eb/N0,Es/N0

之前学习主要考虑的SNR和误码率,对Eb/N0和Es/N0不太了解,这次边记录边学习一下(希望随着自己的学习可以不断完善)。Eb/No是接收端完成解调之后,也就是有用信号能量收集,和去除带外噪声之后,信号平均能量和噪声方差之比.Tsamp:采样周期,每个采样点持续的时间,Tsamp = 1/Fs,其中Fs为采样率。Bn:噪声带宽,单位赫兹,对于awgn噪声,有 Bn=Fs=1/Tsamp。Tsym:符号周期,每个符号持续的时间,易知Tsym = 1/Rs,单位秒。S:信号功率,N:噪声功率。

2023-11-09 16:11:07 4814 1

原创 IC八股文

数字IC设计面试问题

2023-03-24 10:18:51 2145

原创 leetcode-四数之和

leetcode

2022-07-20 10:57:19 149

原创 哈希表-两数之和

哈希表-两数之和

2022-07-18 15:14:48 294

原创 c++ 移除链表元素

c++ 移除链表元素

2022-06-13 21:58:48 290

原创 C++通讯录管理系统

1、菜单界面#include<iostream>using namespace std;//菜单界面void showMenu(){ cout << "*************************" << endl; cout << "***** 1、添加联系人 *****" << endl; cout << "***** 2、显示联系人 *****" << endl; cout <&lt

2022-04-05 18:08:45 638

原创 FPN 特征金字塔 理解

Feature Pyramid Networks对于Faster Rcnn使用FPN,cocoAP提升2.3个点,pascalAP提升3.8个点1*1的conv,调整通道数,原论文中的1*!的卷积核个数为256,即最终得到的特征图的channel都等于256.2倍上采样,7*7变成14*14,代码中是邻近插值算法此处参考:https://www.bilibili.com/video/BV1dh411U7D9?spm_id_from=333.999.0.0...

2022-01-09 22:53:17 1336

原创 Faster-RCNN 理解

GPU上达到5fps流程:1、将图像输入网络得到相应的特征图2、使用RPN结构生成候选框,将RPN生成的候选框投影到特征图上获得相应的特征矩阵3、将每个特征矩阵通过ROI pooling层缩放到7*7大小的特征图,接着将特征图展平通过一系列全连接层得到预测结果。即:RPN+Fast R-CNN256-d :ZF-Net 512-d:VGG16在feature map 用3*3conv,padding=1,得到shape与feature map 相同的特征矩阵,..

2022-01-09 22:28:38 1366

原创 RCNN,Fast-RCNN 理解

目录RCNNFast-RCNNRCNN深度学习目标检测的开山之作。RCNN的算法流程:1、一张图像生成1k-2k个候选区域(使用Selective Search方法)2、对每个候选区域,使用深度网络提取特征3、特征送入每一类的SVM分类器,判别是否属于该类4、使用回归器精细修正候选框位置--1、Selective Search算法 输入:彩色图片。 输出:物体可能的位置,即是很多的矩形坐标。 首先,我们使用Gr...

2022-01-09 20:31:40 276

原创 ZF-Net 理解

论文名称《Visualizing and Understanding Convolutional Networks 》论文最大的贡献在于通过使用可视化技术揭示了神经网络各层到底在干什么,起到了什么作用。如果不知道神经网络为什么取得了如此好的效果,那么只能靠不停的实验来寻找更好的模型。使用一个多层的反卷积网络,来可视化训练过程中特征的演化及发现潜在的问题;同时根据遮挡图像局部,对分类结果的影响来探讨对分类任务而言,到底那部分输入信息更重要。反卷积网络:反卷积网络的每一层都可以看做卷积网络中

2021-12-20 20:55:23 986

原创 MobileNetV3详解

目录1、回忆v1,v22、V3的网络特点3、详细解释1、回忆v1,v2V1:引入了深度可分离网络(DW+PW)V2:引入了倒残差结构(bottleneck)2、V3的网络特点1、更新了block(beck),在V2基础上进行了简单改动:引入了SE模块(Squeeze-and-excitation),对于SE模块,不再使用sigmoid,而是采用ReLU6(x + 3) / 6作为近似(h-sigmoid)使用hard-swish激活...

2021-11-29 21:26:31 4524

原创 MobileNet v2理解

相比v1准确率更高,模型更小网络亮点:Inverted residual block(倒残差结构)Linear Bottlenecks如下下图所示,左侧是ResNet网络中的残差结构,右侧就是MobileNet v2中的到残差结构。在残差结构中是1x1卷积降维->3x3卷积->1x1卷积升维,在倒残差结构中正好相反,是1x1卷积升维->3x3DW卷积->1x1卷积降维。此图摘自:7.1 MobileNet网络详解_哔哩哔哩_bilibili...

2021-11-25 20:36:33 563

原创 MobileNet V1 理论理解

MobileNet网络,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量。(相比VGG16准确率减少了0.9%,但模型参数只有VGG的1/32)。网络优点:Depthwise Convolution结构(大大减少了运算量和参数量),即DW卷积增加超参数α和β传统卷积和DW卷积的不同:此图摘自:7.1 MobileNet网络详解_哔哩哔哩_bilibili如果想改变/自定义输出特征矩阵的channel,...

2021-11-25 19:47:12 179

原创 NMS非极大值抑制

NMS非极大值抑制的功能:筛选出一定区域内、属于同一种类、得分最大的框。每个grid cell包含2个bounding box(每个bounding box包含4个box位置坐标和1个box置信度) 和20个类别的条件概率。将box置信度和20个类别的条件概率分别相乘,得到一个全概率(20*1)。因此每个bounding box有一个全概率,1个grid cell有2个全概率,总共输出有7*7*2=98个全概率此图摘自:YOLOv1 前向推断后处理——NMS非极大值抑制_我的博客-.

2021-11-24 22:36:03 1478

原创 YOLOv1损失函数代码详解

损失函数:

2021-11-22 21:58:47 2491

原创 认识PASCAL VOC数据集(目标检测)

数据集详解(只介绍目标检测中):目标检测主要用Annotations保存标签数据、ImageSets保存具体数据集的索引、JPEGImages保存图片。其他为分割。有20个类别Annotations: 文件保存位置:VOC2012/Annotations的xml文件保存信息: 1、物体name:如fperson; 2、size:width,height,depth ...

2021-11-22 21:21:19 2714

原创 IOU代码详解

参考:IOU代码详细解释_ning469的博客-CSDN博客_iou代码目录第一种python代码:第二种python代码:定义:IOU为两张图片的交并比。交集/并集第一种python代码:1 def bb_intersection_over_union(boxA, boxB): #定义一个函数来计算IOU的值2 boxA = [int(x) for x in boxA] #从boxA中提取每一个元素x,并且每一个元素均为整数3 boxB = [i

2021-11-22 20:35:08 4079

原创 YOLOv1学习笔记(方便自己记忆)

自己写了些笔记,方便自己记忆,若有违规和错误请留言目录主要思想:复现YOLOv1方法:预测结果7*7*30的含义:gt box数据处理:损失函数:预训练:YOLOv1缺点:主要思想:1、把真实grounding truth box的传入网络,读取成7*7*30的tensor。使预测的bbox尽可能的去拟合gt box,使损失函数最小2、由该gt box的中心点,即落到哪个grid cell内,由这个cell产生的B个bounding box(v1中B=2),这

2021-11-21 22:33:23 814

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除