自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 代码随想录007--哈希法:两个数组的交集,两数之和

思路:将numbers1处理转变为哈希表的形式来存储numbers1里面的所有元素,再用numbers2去遍历每一个元素去查询哈希表中是否出现过,若出现过放入result。unordered_set 做映射和取值操作时效率最高;unordered_set 可直接做去重操作。哈希表善于解决:给出一个元素,判断该元素是否在集合里出现过;数组:数组适用于数值不大的情况;2.两数之和(哈希表map)

2024-08-14 16:45:38 36

原创 代码随想录006--哈希表有效的字母异位词

for(i=0;i<s.size();i++)for(i=0;i<t.size();i++)for(i=0;i<26;i++)if(hash[i]!=0)

2024-08-14 10:57:57 134

原创 代码随想录链表--005

链表:链表是一种通过指针串联在一起的线性结构,每一个节点由两部分组成,一个是数据域一个是指针域(存放指向下一个节点的指针),最后一个节点的指针域指向null(空指针的意思)。双链表:每一个节点有两个指针域,一个指向下一个节点,一个指向上一个节点。循环链表:顾名思义,就是链表首尾相连,循环链表可以用来解决约瑟夫环问题。链表的入口节点称为链表的头结点也就是head。单链表:中的指针域只能指向节点的下一个节点。双链表 既可以向前查询也可以向后查询。学不明白,delay。

2024-08-14 10:26:58 52

原创 代码随想录003--有序数组的平方

i<=j;){i++;elsej--;

2024-08-13 15:37:57 86

原创 代码随想录002--移除元素

先找到目标元素的位置,从目标元素的位置开始依次用后一个元素覆盖前面一个元素;在一个数组中删除元素是不能直接删除的,只能进行覆盖;

2024-08-13 09:31:14 76

原创 代码随想录001--二分法

左闭右闭:最右端坐标为size-1。区间:左闭右闭,左闭右开;

2024-08-12 16:33:32 90

原创 深度学习每日学习0808--003

堆叠小的卷积核所需的参数更少一些,并且卷积过程越多,特征提取也会越细致,假如的非线性变换也随着增多,还不会增大权重参数个数,这就是VGG网络的基本出发点,用小的卷积核来完成体特征提取操作。感受野:如果堆叠3个3*3的卷积层,并且保持滑动窗口步长为1,其感受野就是7*7的了,这跟一个使用7*7卷积核的结果是一样的。3个3*3卷积核所需参数=3*c*(3*4*c)=27c^2;一个7*7卷积核所需参数=c*(7*7*c)=49c^2;只有带参数的运算才能称为神经网络的层数;基本都是采用最大池化,最有效;

2024-08-08 17:40:52 305

原创 深度学习每日学习0806--002

其中w1、h1表示输入的宽度、长度;w2、h2表示输出特征图的宽度、长度;drop-out:为了解决过拟合问题,在训练过程中,在每一层随机的选择一部分神经元不参与训练,卷积层涉及参数:滑动窗口步长、卷积核尺寸、边缘填充、卷积核个数;步长:步长越小,特征丰富越细腻;步长越大,特征越大;边缘填充:eg.矩阵外一圈/两圈添加全0或全1;经过卷积操作后也可以保持特征图长度宽度不变;卷积核个数:取决于最终要生成多少特征图;链式法则:梯度是一步一步传播的;前向传播:得到损失值;反向传播(梯度下降)卷积核:一般3*3;

2024-08-06 17:51:02 98

原创 深度学习每日学习0805--001

KNN(K-Nearest Neighbor)算法是机器学习算法中最基础、最简单的算法之一。它既能用于分类,也能用于回归。KNN通过测量不同特征值之间的距离来进行分类。KNN算法的思想非常简单:对于任意n维输入向量,分别对应于特征空间中的一个点,输出为该特征向量所对应的类别标签或预测值。没有学习过程,无法分辨背景和主体,不适用于图像任务。神经网络做回归还是分类是由损失函数所决定的。收集数据并给标签---特征提取---算法。深度学习:计算量太大;

2024-08-06 09:11:14 98

原创 isp算法学习0801--002

SharpnessUD:无方向性edge的强度,发丝草地等细小纹理清晰度,横轴为高中低频率,纵轴为无向性edge的强度增益,值越大edge越强。SharpnessD:方向性edge的强度,用于增强图像边缘,建筑边缘等,但调的太强会导致锯齿状。gamma:与其他机器进行对比时需要先进行gamma对齐,因为gamma会对亮度影响较大;PreCorUD:无向性edge做coring(减法),减小edge保留大edge;本质是分区,无方向性--平坦区,细节区;噪声处理整体思路为分区:平坦区、高频区、边缘区。

2024-08-01 15:31:38 134

原创 isp算法学习0731--001

调试思路:在画面中无运动的区域3D更强使画面更安静,动态区减弱3D强度,使拖影和噪声稳定;调试参数为两类,一是围绕判断静止区和运动区的参数(额外还有动态区转静态区的参数),二是3D强度(一般很少调);动态区NRluma更强,静态区少上或不上,静态区噪声由其他2D噪声抹去。降低时域噪声(画面中一直抖动的噪声,包括亮度和颜色噪声),开强3DNR噪声可以有效降低蠕动噪声,若太强会导致运动物体出现残影;增加画面分辨率的同时减少方向误判与artifacts的产生;一般静态区上更强3D,动态区更强2D;

2024-08-01 09:12:08 157

原创 c语言每日学习0726---004

1.

2024-07-26 10:46:03 74

原创 c++每日学习0725---003

2.起名习惯:下划线 first_name,驼峰 FirstName;4.采用5 == num写法优于num ==5,当少敲一个=时会报错;7.调试循环,将断点打在循环判断入口,如while处,然后f10;1.c语言的结构化:顺序结构、选择结构、循环结构;3.函数中的return直接跳出当前函数并返回;4.break只能跳出当前的switch语句;5.if后面千万不要加;

2024-07-26 09:26:20 167

原创 c++每日学习0724---002

局部变量存储位置一般在栈区,+static后变为静态区,变量的生命周期变长,和程序的生命周期一样。指针变量的大小取决于地址的大小,32位平台下地址是个32bit位,即4个字节;8.宏表示函数,eg:#define ADD(x,y) ((x)+(y));内存单元:编号->地址->地址也被成为指针,存放指针(地址)的变量就是指针变量;7.电脑上的存储设备:寄存器-集成到cpu上,高速缓存-cache,内存 硬盘。5.++和--:后置++ 先使用 后++,前置++ 先++ 后使用。4.打印小数,%.1f。

2024-07-24 21:28:57 298

原创 c++每日学习0723---001

(即-2^31~2^31-1))int:4 (32bit,-2147483648~2147483647;(即-2^31~2^31-1))bit-比特位(二进制中一个数字空间),byte-字节(8个二进制数字空间),kb,mb,gb,tb,pb。(即-2^15~2^15-1))c语言习惯,函数正常运行完后返回0,函数异常终止返回1;新建工程->新建源文件。

2024-07-24 09:21:54 246

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除