深度学习
文章平均质量分 81
hlalfsf
这个作者很懒,什么都没留下…
展开
-
030图像分割批量转化json格式数据集mask或图像轮廓提取
这个是直接生成的json文件在labelme工具种可视化的结果,可以看到红色区域是森林区域,效果还是不错的,用这个方法批量生成数据是有效的,省时间的。很多数据其实可以根据轮廓查找,找到目标的坐标点,然后我们再根据这些坐标点生成json格式的数据。很多时候我们对一些数据做图像分割需要手动打标签,按照轮廓去描,但是这样往往需要消耗很长的时间。不到一分钟5000多张图片就弄好了图像分割的json格式标签。原创 2023-09-05 22:16:03 · 208 阅读 · 0 评论 -
029yolov5_deepsort目标跟踪行人统计数量
本次是基于yolov5_deepsort的目标跟踪行人统计数量,demo演示观看bilibili029期。主要运行demo只有01main.py 它会读取video下的视频文件进行识别。会自动统计视频或摄像头中行人通过自定义的碰撞区的人数有多少。原创 2023-09-05 22:15:33 · 77 阅读 · 0 评论 -
028目标检测视频检测_人脸识别表情识别
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:14:24 · 68 阅读 · 0 评论 -
027目标检测小程序识别表情_人脸识别
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:13:26 · 106 阅读 · 0 评论 -
026人脸表情识别网页版
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:12:50 · 69 阅读 · 0 评论 -
025目标检测表情检测识别pyqt_python
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:12:10 · 48 阅读 · 0 评论 -
024微表情检测系统之疲劳_漫不经心_注意力集中CNN小程序版
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:11:26 · 219 阅读 · 0 评论 -
023微表情检测系统之疲劳_漫不经心_注意力集中CNN视频流版
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:10:41 · 29 阅读 · 0 评论 -
022微表情检测系统之疲劳_漫不经心_注意力集中CNN网页版
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:09:13 · 48 阅读 · 0 评论 -
021微表情检测系统之疲劳_漫不经心_注意力集中CNN图像版
基于这些观察结果,EfficientNet使用了一个称为Compound Scaling的方法,同时增加了模型的深度、宽度和分辨率,以在资源受限的环境下取得更好的性能。与传统的网络相比,GoogleNet具有更深的结构,但通过合理的设计和使用1x1的卷积核进行降维操作,成功地减少了计算复杂度和参数数量。相比于之前的模型,VGG采用了更多的卷积层和池化层,达到了16或19个卷积层的深度。同时,VGG中的卷积层都使用了较小的3x3卷积核,并且连续堆叠多次,以增加网络的非线性表达能力。原创 2023-09-05 22:08:11 · 68 阅读 · 0 评论