2021-04-17学习笔记

CUDA

统一计算设备架构(Compute Unified Device Architecture, CUDA),是由NVIDIA推出的通用并行计算架构。解决的是用更加廉价的设备资源,实现更高效的并行计算。

显卡输出接口与输出分辨

显卡的输出接口从低到高一般为VGA/DVI/HDMI/DP,输出的分辨率由高到低为VGA<DVI<HDMI<DP。

Nano中Maxwell,128CUDA单元

在Maxwell中,NVIDIA再度重新设计了整个GPU SMM的逻辑层,使得每一个CUDA Core得到了更为严格的控制。在Kepler上,一个大的控制模块控制了所有的192个CUDA Core。但是在Maxwell上,四个小的控制模块控制了128个CUDACore。从这个角度来看,需要控制的计算单元数量更少,并且由于控制模块被分拆,控制效率得以提升。

此外,Maxwell在CUDA Core和SMM的设计上都做出了改变,比如NVIDIA官方白皮书宣称Maxwell的每个SMM的性能只有之前SMX的90%,但是体积更小,甚至SMM只有SMX体积的65%~70%。根据NVIDIA的官方数据来看,Maxwell相比之前的Kepler,整体能耗比效率提升了大约35%之多。换句话来说,Maxwell相比Kepler,晶体管在一开一关的过程中,做了更多实际的计算,没有白白浪费时间。
Ma x well的游戏性能非常出众。

笔记本GTX1650Ti性能

论性能GTX1060>GTX1650ti>GTX1650。相同配置,不同品牌的笔记本电脑价格会不一样。觉得搭在GTX1650ti显卡的笔记本性价比会更高。平常使用性能也够用。

HAAR 分类器

基于Haar特征的cascade分类器(classifiers) 是Paul Viola和 Michael Jone在2001年,论文”Rapid Object Detection using a Boosted Cascade of Simple Features”中提出的一种有效的物品检测(object detect)方法。它是一种机器学习方法,通过许多正负样例中训练得到cascade方程,然后将其应用于其他图片。
在OpenCV3的源码的data目录中就可以找到已训练好的HAAR算法模型,至HAAR算法的各种细节与理论有兴趣的直接去Google或者百度吧,一搜一大堆。花时间看一堆理论不如直接上代码,由代码直接理解这些复杂理论的应用更适合开发人员,毕竟我们不是数学家。

HOG

HOG的核心思想是所检测的局部物体外形能够被光强梯度或边缘方向的分布所描述。通过将整幅图像分割成小的连接区域(称为cells),每个cell生成一个方向梯度直方图或者cell中pixel的边缘方向,这些直方图的组合可表示出(所检测目标的目标)描述子。为改善准确率,局部直方图可以通过计算图像中一个较大区域(称为block)的光强作为measure被对比标准化,然后用这个值(measure)归一化这个block中的所有cells.这个归一化过程完成了更好的照射/阴影不变性。与其他描述子相比,HOG得到的描述子保持了几何和光学转化不变性(除非物体方向改变)。因此HOG描述子尤其适合人的检测。

OpenCV实现了两种类型的基于HOG特征的行人检测,分别是SVM和Cascade,OpenCV自带的级联分类器的文件的位置在“XX\opencv\sources\data\hogcascades”(OpenCV4.x版本可用)。
行人检测+追踪数据集
在这里插入图片描述

SORT与DeepSort

之前的SORT算法使用简单的卡尔曼滤波处理逐帧数据的关联性以及使用匈牙利算法进行关联度量,这种简单的算法在高帧速率下获得了良好的性能。但由于SORT忽略了被检测物体的表面特征,因此只有在物体状态估计不确定性较低是才会准确,在Deep SORT中,我们使用更加可靠的度量来代替关联度量,并使用CNN网络在大规模行人数据集进行训练,并提取特征,已增加网络对遗失和障碍的鲁棒性。
https://blog.csdn.net/zhuiqiuk/article/details/88653113

TensorRT

TensorRT是一个高性能的深度学习推理(Inference)优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理。TensorRT可用于对超大规模数据中心、嵌入式平台或自动驾驶平台进行推理加速。TensorRT现已能支持TensorFlow、Caffe、Mxnet、Pytorch等几乎所有的深度学习框架,将TensorRT和NVIDIA的GPU结合起来,能在几乎所有的框架中进行快速和高效的部署推理。
TensorRT 是一个C++库,从 TensorRT 3 开始提供C++ API和Python API,主要用来针对 NVIDIA GPU进行 高性能推理(Inference)加速。现在最新版TensorRT是4.0版本。
目前TensorRT4.0 几乎可以支持所有常用的深度学习框架,对于caffe和TensorFlow来说,tensorRT可以直接解析他们的网络模型;对于caffe2,pytorch,mxnet,chainer,CNTK等框架则是首先要将模型转为 ONNX 的通用深度学习模型,然后对ONNX模型做解析。而tensorflow和MATLAB已经将TensorRT集成到框架中去了。

git clone

git clone 拷贝一个 Git 仓库到本地,让自己能够查看该项目,或者进行修改。
https://www.cnblogs.com/ludashi/p/8052739.html

ubuntu退出shell终端命令_ubuntu 终端常用命令

ctrl + l - 清屏

ctrl + c - 终止命令

ctrl + d - 退出 shell,好像也可以表示EOF

ctrl + z - 将当前进程置于后台,fg还原。

ctrl + r - 从命令历史中找

ctrl + a - 光标移到行首

ctrl + e - 光标移到行尾

ctrl + u - 清除光标到行首的字符

ctrl + w - 清除光标之前一个单词

ctrl + k - 清除光标到行尾的字符

ctrl + t - 交换光标前两个字符

ctrl + y - 粘贴前一ctrl+u类命令删除的字符

ctrl + p - 上一条命令

ctrl + n - 下一条命令

ctrl + v - 输入控制字符 如ctrl+v ,会输入^M

ctrl + f - 光标后移一个字符

ctrl + b - 光标前移一个字符

ctrl + h - 删除光标前一个字符

N++f - 光标后移N个单词,N为1时可省略

N++b - 光标前移N个单词,N为1时可省略

ctrl + s - 挂起当前shell

ctrl + q - 重新启用

+d 从光标开始处删除到行尾。挂起的shell

!! - 上一条命令

!-n - 倒数第N条历史命令

!-n:p - 打印上一条命令(不执行)

mkdir build

mkdir build 的位置应该是主文件夹下面,也就是工程下面,比如需要进入一工程my_project,则输入下面命令:

cd my_project

mkdir build

#下面编译的步骤通常如下,最好参考官方文档。

cd build

cmake …

make

外部编译:

1.首先,请清除p1目录中除main.c CmakeLists.txt之外的所有中间文件,最关键的是CMakeCache.txt。
2.在p1目录中建立build目录,当然你也可以在任何地方建立build目录,不一定必须在工程目录中。

mkdir build

3.进入build目录,运行cmake …(注: … 代表父目录,因为父目录存在我们需要的CMakeLists.txt,如果你在其他地方建立了build目录,需要运行cmake<工程的全路径>找到CMakeLists.txt),查看一下build目录,就会发现了生成了编译需要的Makefile以及其他的中间文件。

cd build
cmake ..

4.运行make构建工程,就会在当前目录(build目录)中获得目标文件hello
make

1、./是当前目录 2、…/是父级目录 3、/是根目录

今天复现了这个项目

yolov3 + Kalman filter 多目标跟踪

https://codechina.csdn.net/mirrors/Smorodov/Multitarget-tracker?utm_source=csdn_github_accelerator

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值