面向智慧教室物联网关键技术的研究与运用(待完成)

本文记录了作者在物联网环境下,针对智慧教室的研究与实施过程。通过ESP8266模块,研究了AT指令、SDK开发、数据传输延迟等问题,并采用VS Code+PlatformIO进行开发。文中详细描述了在不同阶段遇到的问题与解决方案,包括USB转TTL模块的选择、GPIO电平控制、WiFi数据丢失、摄像头模块的数据传输等。最终实现了包括环境监测、人脸识别在内的功能,并将数据上传至阿里云。同时,文章也讨论了树莓派在人脸识别中的应用,以及如何解决图像传输和识别的挑战。
摘要由CSDN通过智能技术生成

第一周(2.3-2.7)

做毕设的第五天,记录一下这周以来的工作成果。

2月3日

第一次来到教研室,清理出来自己的一片小天地,今天的成果是把设备都搬了过来,复现了之前已经搭建好的平台。开始研究ESP8266模块,学习使用AT指令。想要2K大显示器来写代码。

2月4日

使用AT指令,发现不能在AP模式下开机自动创建网络和TCP服务器,遂开始找SDK开发方式。使用了安信可的官方推荐开发平台,但是资料太少,始终报错,没有研究成果。
PS:今天和正点原子的售后客服交涉了好久,就是不知道我在说什么,什么自己开发的……不还是人家的ESP8266吗,源码也不给一个,我就不信你那固件是在你的单片机平台上开发出来的,买东西的时候宣传的提供源码原来是你们的单片机的源码,就是骗我去买你们的单片机!太坏了!

2月5日

发现了python的版本兼容问题,考虑使用虚拟机创建干净的平台,再次尝试,发现不能正确生成bin固件,另外程序中有大量的关于时钟序列等部分,深入研究耗时过长,作罢。后来考虑了多种解决方案,使用树莓派的话,会增加开发成本和学习成本,pass;改用microPython开发,学习成本也太高,并且貌似对开发板有一定的要求,pass。后来准备采用Arduino开发,因为平台过于简陋,没有一个详细可行的开发教程,烧录的时候也出现了未知错误,pass。后来偶然在一个大佬的GitHub里面发现了现成的固件,抱着试试看的态度烧录进去(那个USB转TTL的东西竟然能烧?!最后还成功了),发现正是符合我要求的那种效果,开心~

2月6日

根据大佬说明的平台,使用了VS Code+PlatformIO的方式进行开发,找了网上的教程,终于把平台搭建完成了,把代码导进去,解决了头文件的问题(这个时候才发现原来我这个ESP8266的板子是和那个运用最广泛的NodeMCU1.0是通用的,吐血……),修改源码之后就能实现想要的功能了,在VS Code里面就能直接进行烧录,大赞!今天发现USB转TTL模块买少了,至少三个才能够用,要不然调试时候就必须上阿里云平台,那个日志服务和消息发布服务不到最后我是不想用的主要是太难用……并且发现红色PCB板的那种RS485转TTL的模块,根本不能用……害得我以为是代码的问题,改了半天,烧录了好几次(ESP8266板子长得完全一样,傻傻分不清……AP和STA弄错了好几次,另外那个VS Code里面编译到底怎么选择是编译哪个工程啊……我淦),最后直接用串口调试才发现那个谜一样的0xff是转换模块传过来的……正好今天晚上在淘宝店里重新下单了USB转TTL,这次应该够用了吧。
PS:今天才发现之前买的光照传感器60多块钱一个,差点因为焊接太丑给扔了……还好找到了,勉强测试了一下,竟然能用?!666啊,今日小确幸。

2月7日

今天因为缺少足够的RS485转TTL模块不能按照原计划进行实验,因此换了一个方向来继续推进,今天发现了新的问题,买的继电器模块不能用,原因是控制信号只能是24V的……幸亏还没把上一批退货送走,要不然亏大了。经过资料查询和实际测量,ESP8266的GPIO2口可以提供3.3V的高电平,正好拿来用作继电器的控制信号,不过焊接就是个大麻烦……这个IO口同时还能用作输入口,检测高低电平,目测可以实现对火焰检测那个小系统的信号采集,果然还是逃不过引脚吗……不过这种C++语言已经是很好的了,没有要求用FPGA那种硬件语言真是太好了,另外深切体会到了VS Code编代码的好处,比当年的Keil4舒服多了。
还是受限于元器件不足,今天的开发进度明显慢了下来,之后要抓紧时间赶上,接下来休假那几天不知道还有没有时间来搞……希望可以有吧,尽量早弄完,就能早点休息了。

第二周(2.22-2.28)

2月22日

今天算是年后第一次正式上班(雾),主要的工作是把之前拆了的系统重新搭建起来,实现了年前的功能,并在原有的基础上进行了WiFi数据传输方面的研究,上午的时候发现了一个巨坑,之前使用的那个USB转TTL的模块果然坏了,蓝灯一直在亮,一直是在往外传输乱码,气死了,幸亏后来买了两个,现在看来我好机智哈哈哈,之后就是对十六进制数据的研究,搞明白之后就能把数据整理之后往云上面传输了,这是很关键的一步,为了后面区分不同的传感器做铺垫。晚上发现了WiFi模块数据处理是有延迟的,瞬发高频数据往往会因为网络延迟等原因导致丢失,因此把数据传输间隔拉长是一个好的选择,但这也意味着目前的网络不支持时效性极高的数据传输,是一个有待后续提升的点。明天计划研究多server,看一下WiFi模块的潜力到底在哪里,希望可以支持四个以上,最起码不要少于四个,球球了,孩子毕设太难了~

2月23日

今日的收获还算可以,验证了AP在同时连接两个STA时的传输性能,还是OK的,之后把GPIO引脚电平方面搞明白了,实现了远程开门锁的功能,就是时延略长(6秒左右),现在我也大概理解了为什么共享单车开锁时间为什么会那么长,和我这个原理大概差不多。也借此机会重新跑了一下Python的代码,发现了好多逻辑上不通的地方,顺手改了一下,把温湿度和开锁键都调试好了

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
目标检测(Object Detection)是计算机视觉领域的一个核心问题,其主要任务是找出图像中所有感兴趣的目标(物体),并确定它们的类别和位置。以下是对目标检测的详细阐述: 一、基本概念 目标检测的任务是解决“在哪里?是什么?”的问题,即定位出图像中目标的位置并识别出目标的类别。由于各类物体具有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具挑战性的任务之一。 二、核心问题 目标检测涉及以下几个核心问题: 分类问题:判断图像中的目标属于哪个类别。 定位问题:确定目标在图像中的具体位置。 大小问题:目标可能具有不同的大小。 形状问题:目标可能具有不同的形状。 三、算法分类 基于深度学习的目标检测算法主要分为两大类: Two-stage算法:先进行区域生成(Region Proposal),生成有可能包含待检物体的预选框(Region Proposal),再通过卷积神经网络进行样本分类。常见的Two-stage算法包括R-CNN、Fast R-CNN、Faster R-CNN等。 One-stage算法:不用生成区域提议,直接在网络中提取特征来预测物体分类和位置。常见的One-stage算法包括YOLO系列(YOLOv1、YOLOv2、YOLOv3、YOLOv4、YOLOv5等)、SSD和RetinaNet等。 四、算法原理 以YOLO系列为例,YOLO将目标检测视为回归问题,将输入图像一次性划分为多个区域,直接在输出层预测边界框和类别概率。YOLO采用卷积网络来提取特征,使用全连接层来得到预测值。其网络结构通常包含多个卷积层和全连接层,通过卷积层提取图像特征,通过全连接层输出预测结果。 五、应用领域 目标检测技术已经广泛应用于各个领域,为人们的生活带来了极大的便利。以下是一些主要的应用领域: 安全监控:在商场、银行
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值