Deep learning
深度学习算法和操作
粼粼淇
淇水汤汤,波光粼粼。岸芷汀兰,郁郁青青。
从事计算机视觉,机器学习等方面算法的工作,爱好数学、算法、编程、中国古典文学、哲学,喜欢旅游,爱思考、爱推理;追求卓越、追求极致。
展开
-
瑞芯微板子人脸识别demo展现
我使用的瑞芯微板子是RK3399Pro,这个板子自带有人脸识别功能,于是参看Rockchip_Developer_Guide_RockX_SDK_CN.pdf这个文档进行测试,具体操作手册上还算详细,在此不赘述。 原始的程序中是可以用摄像头来demo的,但是板子没直接接显示器,你imshow不了呀,无赖之下只能采用网络通讯方式来把结果发送到pc端然后绘制结果,最后显示,在此我采用了python3中的socket来通讯并收发json数据,下面直接上程序吧,先说明下,原始代码写的...原创 2021-07-16 18:40:31 · 1548 阅读 · 0 评论 -
IoU、GIoU、DIoU、CIoU
1 IoU、GIoU、DIoU、CIoU损失函数的那点事儿https://zhuanlan.zhihu.com/p/947992952 目标检测算法之AAAI 2020 DIoU Loss 已开源(YOLOV3涨近3个点)https://cloud.tencent.com/developer/article/1558533转载 2021-03-08 16:47:03 · 111 阅读 · 0 评论 -
IoU、GIoU、DIoU、CIoU损失函数
https://www.cnblogs.com/wujianming-110117/p/13019343.html转载 2021-03-02 17:16:06 · 302 阅读 · 0 评论 -
caffe-segnet小点笔记
学习caffe-segnet中的小点笔记.一 好的教程语义分割 | segnet 制作自己的数据,如何训练,如何测试,如何评价https://blog.csdn.net/u012426298/article/details/81386817?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_title-2&spm=1001.2101.3001.4242二 要点记录1原始工程中,训练数据集没有背景这一类2训练中忽略原创 2021-02-22 18:01:37 · 93 阅读 · 0 评论 -
语义分割重要指标计算python程序
语义分割重要指标计算python程序网上有好些,各有特色,但最近在用paddle框架感觉还顺手,其计算分割的指标程序还可以,但原始的有些繁琐,而且没有对分割好的结果图和标记图做评估,在经过一段时间研读源码后,我在原始基础上做了一些修改和封装,最后形成如下代码,在此整理一下并分享出来。 代码简明扼要,不做过多解释。#DQ 2020/12/31import osimport sysimport cv2,timeimport numpy as npfrom scip...原创 2020-12-31 18:16:06 · 1215 阅读 · 5 评论 -
AutoML和AutoDL
1AutoML和AutoDL:简化http://blog.itpub.net/29829936/viewspace-2649301/2解读百度AutoDL:打破SOTA纪录的神经架构搜索是如何炼成的http://www.ijiandao.com/2b/baijia/223045.html原创 2020-12-27 19:55:41 · 404 阅读 · 2 评论 -
深度学习中自己标注数据的一些总结
深度学习严重依赖于海量的数据,因此很多时候我们都是在别人训练好的model上进行迁移学习然后在自己的数据集上精细调节,不同的行业任务不同,因此很多时候常见开源数据集如VOC,ImageNet,COCO,OpenImage等数据是不能用的,要进行训练学习,就得制作自己的数据集。 刚开始可能很多人像我一样认为给图像打标签,拉bound boxes有啥难的,但自己真正干起...原创 2019-12-20 10:47:22 · 8259 阅读 · 0 评论 -
darknet-yolov4 python接口封装
class DarknetYolov4: def __init__(self,configPath,weightPath,metaPath,thresh): # Import the global variables. This lets us instance Darknet once, then just call performDetect() again without instancing again global metaMain, netMain, a.原创 2020-10-13 13:41:48 · 680 阅读 · 0 评论 -
冻结网络层训练的解释
博客链接:https://zhuanlan.zhihu.com/p/41313280在微调(fine-tuning)中,需要确定冻结的层数和可训练的层数,主要取决于,数据集相似度和新数据集的大小。原则上,相似度越高,则固定(fix)的层数越多;新数据集越大,不考虑训练时间的成本,则可训练更多的层数。然后可能也要考虑数据集本身的类别间差异度,但上面说的规则基本上还是成立的。例如,在图片分类的网络中,底层一般是颜色、轮廓、纹理等基础结构,显然大部分问题都由这些相同的基础结构组成,所以可以冻结这些层。层数转载 2020-05-17 13:58:43 · 4364 阅读 · 2 评论 -
Accuracy Versus Precision(准确率Vs精度)
Accuracy Versus PrecisionA surveyor strives for both accuracy and precision. Many people use the terms “accuracy” and “precision” interchangeably. However, for those in the surveying profession (a...翻译 2019-03-10 16:41:29 · 2389 阅读 · 2 评论 -
机器学习模型的一些指标:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、平均精度(Average precision)、mAP 和交并比(IoU)
前段时间在看机器学习中的相关东西,其中有些术语如精确率、召回率、平均精度和交并比,于是在网上查呀,一大堆资料,看的是有些绕,感觉主要是好多中文blog和文章说的不清楚,最后查看了wiki和一篇外文结合一些中文blog算是比较清楚了。由于这些blog和文献都说的比较好也全,在此就不重复抄袭了,我把参阅的文章和blog链接一并放置在此并做些说明。1、https://blog.csd...原创 2019-03-03 10:51:06 · 9763 阅读 · 1 评论