结构体的内存对齐

在这里插入图片描述

💐 🌸 🌷 🍀 🌹 🌻 🌺 🍁 🍃 🍂 🌿 🍄🍝 🍛 🍤
📃个人主页 阿然成长日记 👈点击可跳转
📆 个人专栏: 🔹数据结构与算法🔹C语言进阶
🚩 不能则学,不知则问,耻于问人,决无长进
🍭 🍯 🍎 🍏 🍊 🍋 🍒 🍇 🍉 🍓 🍑 🍈 🍌 🍐 🍍


#Stable Diffusion

一、结构体对齐规则

  1. 第一个成员在与结构体变量偏移量为0的地址处。

  2. 其他成员变量要对齐到某个数字(对齐数)的整数倍的地址处。
    对齐数 = 编译器默认的一个对齐数与该成员大小的较小值。
    (vs中默认的对齐数是8。Linux环境下没有默认对齐数,在没有默认对齐数的情况下自身大小就是对齐数)

  3. 结构体总大小为最大对齐数(每个结构体成员都有一个对齐数,取最大的对齐数)的整数倍 。

  4. 如果嵌套了结构体的情况,嵌套结构体对齐到自己的最大对齐数的整数倍处,结构体的整体大小就是所有最大对齐数(含嵌套结构体的对齐数)的整数倍。

二、探索研究例题

案例一

#include<stdio.h>
struct S1
{
	char c1;
	int i;
	char c2;
};
struct S2
{
	char c1;
	char c2;
	int i;
};
int main()
{
	struct S1 s1;
	struct S2 s2;
	printf("%d\n", sizeof(s1));
	printf("%d\n", sizeof(s2));
	return 0;
}

在这里插入图片描述
我们可以看到 struct S1 与struct S2的结构体成员是相同的,为什么分别定义的变量的大小却不同呢?
1.首先来看S1
struct S1
{
char c1;
int i;
char c2;
};

1)char c1的对齐数为1.

2)int i的对齐数为4;

3)char c2 的对齐数为1;

4)结构体成员最大的对齐数是4;
![在这里插入图片描述](https://img-blog.csdnimg.cn/eee6008c0e154cfab12cea0edff234f1.png
在这里插入图片描述
2.再来看S2
struct S2
{
char c1;
char c2;
int i;
};

1)char c1的对齐数为1.

2)int i的对齐数为4;

3)char c2 的对齐数为1;

4)结构体成员最大的对齐数是4;
在这里插入图片描述
假设 c1从地址0开始,它占用1个字节,接着是i ,它要对齐到4的倍数的地址处,也就是从地址4开始。占用4个字节,接在是c2因为它的对齐数是1,所以也就不存在对齐,占用1个字节。到这为止一共占用9个字节,又因为结构体的总大小为最大对齐数的整数倍,即是4的整数倍,故结构体的大小是12;

案例二、

有结构体嵌套的情况

#include<stdio.h>
struct S1
{
	char c1;
	int i;
	char c2;
};
struct S2
{
	char c1;
	struct S1 c2;
	int i;
};
int main()
{
	struct S1 s1;
	struct S2 s2;
	printf("%d\n", sizeof(s1));
	printf("%d\n", sizeof(s2));
	return 0;
}

运行结果:
在这里插入图片描述
1.S1上面已经探究过了,我们主要看结构体嵌套情况。
2.S2:
struct S2
{
char c1;
struct S1 c2;
int i;
};

S1的大小是12
1)char c1的对齐数为1.

2)struc S1 c2的最大对齐数是4;

3)int i的对齐数为4;

4)结构体成员最大的对齐数是4。
在这里插入图片描述

假设 c1从地址0开始,它占用1个字节,接着是c2 ,它要对齐到4的倍数的地址处,也就是从地址4开始。占用12个字节,接在是 i 它的对齐数是4,刚好从地址16开始,占用4个字节。到这为止一共占用20个字节,又因为结构体的总大小为最大对齐数的整数倍这里注意:结构体S2来看,c2的最大对齐数就是S1自己的最大对齐数即是4的整数倍,故结构体的大小是20。

三、结构体传参

结构体是一种类型,在函数调用,传参可以是直接传入结构体,也可以传入结构体的地址,但是又区别:

1.传入结构体时,函数内的任何操作都是对拷贝结构体的修改,不会影响到原本的结构体变化。

2.传入结构体地址时,该在函数用结构体指针接收,指针指向的是结构体起始地址,函数里的操作会改变结构体里面的内容,如果想要不被改变,可以加
const 修饰符。
在传参时,最好使用传指针的方式,因为函数传参的时候,参数是需要压栈,会有时间和空间上的系统开销。
如果传递一个结构体对象的时候,结构体过大,参数压栈的的系统开销比较大,所以会导致性能的下降。

四、为什么需要对齐

1. 平台原因(移植原因)

不是所有的硬件平台都能访问任意地址上的数据,某些硬件平台只能在某些地址处取出某些特定类型的数据,否则会出现硬件异常。

2. 性能原因

数据结构(尤其是栈)应该尽可能的在自然边界上对齐。原因在于,为了访问未对齐的内存,处理器需要做两次内存访问,而对齐的内存访问仅需要一次访问。

总体来说:结构体的内存对齐是拿空间来换取时间的做法。

五、修改默认对齐数

结构体在对齐方式不合适时,我们可以自己更改对齐数。
通过 #pragma pack()来设置默认对齐数,一般我们设置成2的次方。

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
1 目标检测的定义 目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 目标检测任务可分为两个关键的子任务,目标定位和目标分类。首先检测图像中目标的位置(目标定位),然后给出每个目标的具体类别(目标分类)。输出结果是一个边界框(称为Bounding-box,一般形式为(x1,y1,x2,y2),表示框的左上角坐标和右下角坐标),一个置信度分(Confidence Score),表示边界框中是否包含检测对象的概率和各个类别的概率(首先得到类别概率,经过Softmax可得到类别标签)。 1.1 Two stage方法 目前主流的基于深度学习的目标检测算法主要分为两类:Two stage和One stage。Two stage方法将目标检测过程分为两个阶段。第一个阶段是 Region Proposal 生成阶段,主要用于生成潜在的目标候选框(Bounding-box proposals)。这个阶段通常使用卷积神经网络(CNN)从输入图像中提取特征,然后通过一些技巧(如选择性搜索)来生成候选框。第二个阶段是分类和位置精修阶段,将第一个阶段生成的候选框输入到另一个 CNN 中进行分类,并根据分类结果对候选框的位置进行微调。Two stage 方法的优点是准确度较高,缺点是速度相对较慢。 常见Tow stage目标检测算法有:R-CNN系列、SPPNet等。 1.2 One stage方法 One stage方法直接利用模型提取特征值,并利用这些特征值进行目标的分类和定位,不需要生成Region Proposal。这种方法的优点是速度快,因为省略了Region Proposal生成的过程。One stage方法的缺点是准确度相对较低,因为它没有对潜在的目标进行预先筛选。 常见的One stage目标检测算法有:YOLO系列、SSD系列和RetinaNet等。 2 常见名词解释 2.1 NMS(Non-Maximum Suppression) 目标检测模型一般会给出目标的多个预测边界框,对成百上千的预测边界框都进行调整肯定是不可行的,需要对这些结果先进行一个大体的挑选。NMS称为非极大值抑制,作用是从众多预测边界框中挑选出最具代表性的结果,这样可以加快算法效率,其主要流程如下: 设定一个置信度分阈值,将置信度分小于阈值的直接过滤掉 将剩下框的置信度分从大到小排序,选中值最大的框 遍历其余的框,如果和当前框的重叠面积(IOU)大于设定的阈值(一般为0.7),就将框删除(超过设定阈值,认为两个框的里面的物体属于同一个类别) 从未处理的框中继续选一个置信度分最大的,重复上述过程,直至所有框处理完毕 2.2 IoU(Intersection over Union) 定义了两个边界框的重叠度,当预测边界框和真实边界框差异很小时,或重叠度很大时,表示模型产生的预测边界框很准确。边界框A、B的IOU计算公式为: 2.3 mAP(mean Average Precision) mAP即均值平均精度,是评估目标检测模型效果的最重要指标,这个值介于0到1之间,且越大越好。mAP是AP(Average Precision)的平均值,那么首先需要了解AP的概念。想要了解AP的概念,还要首先了解目标检测中Precision和Recall的概念。 首先我们设置置信度阈值(Confidence Threshold)和IoU阈值(一般设置为0.5,也会衡量0.75以及0.9的mAP值): 当一个预测边界框被认为是True Positive(TP)时,需要同时满足下面三个条件: Confidence Score > Confidence Threshold 预测类别匹配真实值(Ground truth)的类别 预测边界框的IoU大于设定的IoU阈值 不满足条件2或条件3,则认为是False Positive(FP)。当对应同一个真值有多个预测结果时,只有最高置信度分的预测结果被认为是True Positive,其余被认为是False Positive。 Precision和Recall的概念如下图所示: Precision表示TP与预测边界框量的比值 Recall表示TP与真实边界框量的比值 改变不同的置信度阈值,可以获得多组Precision和Recall,Recall放X轴,Precision放Y轴,可以画出一个Precision-Recall曲线,简称P-R
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿然成长日记

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值