多功能streamlit_App

文章介绍了如何使用Streamlit构建一个多功能应用,包括图片和视频检测,以及自定义的人脸识别功能。作者详细描述了数据预处理、MTCNN模型训练、SENet模型应用和图片分类的过程,以及所需工具和步骤。
摘要由CSDN通过智能技术生成

✨多功能streamlit_App

深度学习模型部署实现图片检测、视频检测、人脸识别(判断是否是同一个人)、图片分类。

注:人脸识别为自己实现的功能,具体详细的介绍下面已经给出。

demo演示

演示demo2

安装依赖

pip install -r requirements.txt # 本地安装

运行项目

首先现在人脸识别FaceModel文件夹中进行训练,得到model,然后将Facemodel.py文件中的pkl文件进行替换。然后在终端运行下面的命令。

streamlit run login.py

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GcD8ZTaY-1691047154847)(./Page_data/users.png)]

根据用户名和密码登录,然后进入主页面。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

功能介绍

a. 图片检测

在这里插入图片描述

b. 视频检测

在这里插入图片描述

c. 人脸识别

由于人脸识别功能是自己写自己训练得到的,所以下面将对代码进行详细介绍。
在这里插入图片描述

1. 训练模型数据集

CeleA前500个数据集和CASIA数据集

2. 数据处理

说明:由于CeleACASIA数据集不是单纯的人脸,所以用MTCNN模型提取人脸,然后保存到文件夹中。

2.1 数据预处理

两个数据集包含的总的人脸个数和每个人的人脸个数数量不同,出现了数据不平衡的问题。所以在数据处理阶段我们采用数据融合的方法解决数据不平衡的问题,即将CASIA数据集和CELEA的前500个数据集进行融合。得到是数据存放在中间数据文件夹temp_data中。

  1. CASIA_face_detection.py用于实现CASIA数据集的人脸检测并保存。CASIA数据集中同一个人有5张不同的图片。执行以下命令即可获得预处理后的CASIA数据集。
python CASIA_face_detection.py trainSetCASIA_Dir CASIA_face_train_save_path
【说明】
trainSetCASIA_Dir为数据集CASIA的路径,
CASIA_face_train_save_path为人脸检测后图片的保存路径。
  1. Data_processing_and_detection.py实现CELEA数据集的人脸检测并保存。CELEA数据集同一个人有多张不同的图片(超过5张)。执行以下命令即可获得预处理后的CELEA数据集。
python Data_processing_and_detection.py identify_path img_path save_path CeleA_and_CASIA_save_path 
【说明】
identify_path为数据集CELEA的标签路径,
img_path为CELEA人脸图片路径,
save_path为人脸检测后图片的保存路径,
CeleA_and_CASIA_save_path为CeleA数据集完成编号后保存人脸图片的路径(实现从500开始编号)。

经过以上两步的处理,我们得到预处理后的CASIA数据集和CELEA数据集。于是将两个数据集合并到同一个文件夹,其中包含1000个人的人脸图像,000-499来源于CASIA数据集,500-1000来源于CeleA数据集。

2.2 MTCNN模型原理

第一阶段是使用一种叫做PNet(Proposal Network)的卷积神经网络,获得候选窗体和边界回归向量。同时,候选窗体根据边界框进行校准。然后利用非极大值抑制去除重叠窗体。第二阶段是使用R-Net(Refine Network)卷积神经网络进行操作,将经过P-Net确定的包含候选窗体的图片在R-Net中训练,最后使用全连接网络进行分类。利用边界框向量微调候选窗体,最后还是利用非极大值抑制算法去除重叠窗体。第三阶段,使用Onet(Output Network)卷积神经网络进行操作,该网络比R-Net多一层卷积层,功能与R-Net类似。网络结构图如下。

在这里插入图片描述

3. 模型处理

3.1 模型训练
执行命令: python train.py trainSetDir modelPath
说明:将trainSetDir改为训练集所在的路径,将modelPath改为模型保存的路径。
数据增强:从数据集随机选择两张图片,对其进行添加椒盐噪声,水平翻转、高斯噪声、平移缩放旋转,其中数据增强是随机的。
transform = transforms.Compose([transforms.Resize((256, 256)),
                                AddPepperNoise(0.9,0.5),
                                transforms.ToTensor()])


albu_transfomem = A.Compose([A.HorizontalFlip(p = 0.5),
                             A.OneOf([
                                 A.IAAAdditiveGaussianNoise(),
                                 A.GaussNoise(var_limit=(10,80))
                             ],p=0.8),
                             A.ShiftScaleRotate(scale_limit = 0.1,rotate_limit=15,p=0.6)
                             ],p=0.6)
训练参数设置
train_epochs = 200
in_shape = [256, 256]
train_batch_size = 16
ptimizer = torch.optim.Adam(net.parameters(), 0.0001, betas=(0.9, 0.999)) #初始学习率为0.0001
torch.manual_seed(22) #随机种子,防止模型出现随机性
np.random.seed(22)
criterion = torch.nn.BCEWithLogitsLoss() # 交叉熵损失函数

3. 2 模型预测
执行命令: python test.py testSetDir resultPath
说明:将testSetDir改为测试集所在的路径,将resultPath改为结果保存的路径。
3.3 模型原理

通俗的来说**SENet的核心思想在于通过网络根据loss去学习特征权重,使得有效的feature map权重大,无效或效果小的feature map权重小的方式训练模型达到更好的结果**。SENet-154的构建是将SE块合并到64×4d ResNeXt-152的修改版本中,该版本采用ResNet-152的块堆叠策略,扩展了原来的ResNeXt-101SE结构图如下。

在这里插入图片描述

SENET-154SE存在的其他差异如下:

  • 将第一个7×7卷积层替换为3个连续的3 × 3卷积层
  • 每个bottleneck building block的前1 × 1个卷积通道的数量减半,以降低模型的计算成本,同时性能下降最小。
  • 为了减少过拟合,在分类层之前插入一个dropout layer (dropout ratio为0.2)
  • 在训练过程中使用了标签平滑正则化。

d. 图片分类

在这里插入图片描述

参考链接

[1] streamlit

[2] YOLOv5 检测

[3] 图像分类

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值