自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 ubuntu18.04利用yolov4训练自己的数据集

Ubuntu18.04 部署Yolov4 darknet版本

2022-06-21 11:16:44 1440 2

原创 C++视频与图像的读写操作

最近在用C++编写工程代码,才发现自己的C++水平已经捉襟见肘,很多东西都要学习,今天就先总结一下利用opencv里面的VideoCapture和VideoWriter,以及std::vector<cv::Mat> 型变量与cv::Mat型变量的区别和数据交互。cv::VideoCapture一般来说,VideoCapture用于读取avi格式或mp4格式的视频,或者是从摄像头读取数据。cv::VideoCapture capture(const string& filename)

2021-10-22 11:56:17 1516

原创 李宏毅transformer学习总结(二)Seq2Seq Model

在我的第一篇徐熙总结中,提出了self-attention机制,的基本原理和概念,这篇文章将会介绍Seq2Seq的model。什么是Seq2Seq呢,就是你的输入是一串序列,输出也是一串序列,但是这串序列的个数与你的输入是没有直接关系的,比如说语音转文字,加入我们的输入是It’s a funny today,我们希望得到的输出是’今天真有趣‘,这个输入和输出是没有直接关系的。Seq2Seq可以用来处理语音文字的转换、实现多分类任务(就是一个object身上有很多标签,比如我’有头发‘,也’有睫毛‘之类,

2021-10-13 20:50:30 446

原创 李宏毅transformer学习总结(一)Self-Attention机制

李宏毅transformer学习总结(一)Self-Attention机制Self-Attention机制上下文信息的引入如何加入上下文信息引入上下文带来的问题:计算量与其他神经网络的比较CNN:RNN:总结最近transformer在cv行业大火,在数据量充足的情况下,各项指标力压CNN。我比较好奇transformer是如何工作的,于是去看了李宏毅老师的机器学习课程,在此帖写下自己的感悟和心得。Self-Attention机制讲到transformer,就不得不先学习Self-Attention的

2021-10-13 11:38:26 653

原创 **在学校服务器利用yolov5训练自己的数据集**

在学校服务器利用yolov5训练自己的数据集提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、准备工作1.Easy Connect安装使用2.下载FileZilla3.ssh二、训练过程1.环境的安装2.数据(跟其他人不一样)3.修改yaml文件4.修改models模型文件5.修改train.py6.修改完成,一键起飞7.测试一下自己训练的成果总结前言作为一名准研究生,已经在暑假参与了一丢丢学校的工程项目(打杂ing),这次的任务是帮学长在服务器上建立一个能够跑通y

2021-08-11 22:00:29 1920 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除