GitHub
文章平均质量分 87
有图!有真相!
Flying Bulldog
致力于研究计算机视觉、图像处理的一位帅气学者!
展开
-
2022年12月 && Faster RCNN训练自己的数据集 && 配置环境相对简洁
以往的大多数教程都是数年前的Faster RCNN源码,因为旧环境和现有环境的不同,导致环境配置方面出现一系列问题。特别是利用setup.py或者make.sh配置所需的环境时,遇到并解决一个又一个的问题,遗憾的是,失败总是贯彻全局。解决方案:找到近年的Faster RCNN源码,观察是否需要setup.py,作为一个Lucky Boy,在此分享我的操作流程。原创 2022-12-01 20:33:18 · 1851 阅读 · 2 评论 -
计算模型的GFLOPs和参数量 & 举例VGG16和DETR
近期忙于写论文,分享一下论文中表格数据的计算方法。FLOPS:注意S是大写,是“每秒所执行的浮点运算次数”(floating-point operations per second)的缩写。它常被用来估算电脑的执行效能,尤其是在使用到大量浮点运算的科学计算领域中。正因为FLOPS字尾的那个S,代表秒,而不是复数,所以不能省略掉。FLOPs:注意s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。GFLOPs:一个原创 2022-10-18 21:13:17 · 14574 阅读 · 15 评论 -
调用“抱抱脸团队打造的Transformers pipeline API” && 通过预训练模型,快速训练和微调自己的模型
本文章根据官方文件总结而成,根据第三方库Transformers and pytorch快速搭建自己的神经网络架构,数据集包括语音、文字、图像等,实用性非常强!使用预训练模型有很多好处。 它降低了计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 🤗 Transformers 为各种任务提供了对数千个预训练模型的访问。 当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。 这被称为微调,一种非常强大的训练技术。在本教程中,您将使用您选择的深度学习框架微调预原创 2022-05-13 21:48:59 · 5358 阅读 · 2 评论 -
从传统算法过渡到深度学习(从经典GMM-BackgroundSubtractorMOG2到BackgroundMatting),运动目标检测实战
首先收集非常多的人物肖像数据集,然后搭建两个神经网络,即引入了一个base网络,它可以在较低的分辨率下预测alpha matte和前景层,以及一个预测误差图,它指定了可能需要高分辨率精细化的区域。然后,使用一个refinement网络将低分辨率的结果和原始图像结合在一起,只在选定区域生成高分辨率的输出。最后达到了惊人的效果原创 2022-04-19 16:05:30 · 1010 阅读 · 3 评论