TinyUPnP开源项目指南

TinyUPnP开源项目指南

TinyUPnPA very small UPnP IGD implementation for your ESP8266 for automatic port forwarding项目地址:https://gitcode.com/gh_mirrors/ti/TinyUPnP

项目介绍

TinyUPnP 是一个非常轻量级的UPnP(Universal Plug and Play)IGD(Internet Gateway Device)实现,专为ESP8266设计,同时也兼容ESP32。由Ofek Pearl开发并维护,此库使得嵌入式应用程序可以轻松地自动添加端口映射(即端口转发),从而使设备能够透过NAT(网络地址转换)被外部网络访问。它简化了在物联网(IoT)项目中设置自动端口转发的过程,并提供了一种无需直接使用设备IP地址即可从互联网访问设备的方法,尤其是当结合EasyDDNS库时。

项目快速启动

要快速启动并运行TinyUPnP,首先确保你的开发环境已经配置好Arduino IDE且安装了ESP8266或ESP32的板支持包。

  1. 克隆仓库

    git clone https://github.com/ofekp/TinyUPnP.git
    
  2. 安装库 在Arduino IDE中,通过“Sketch” -> “Include Library” -> “TinyUPnP”来添加库。如果未找到,可以通过“Library Manager”搜索“TinyUPnP”并安装。

  3. 示例代码 导航到TinyUPnP库下的examples文件夹,打开如"PWM_LEDServer"示例。该示例展示了如何设置端口映射。

    #include <ESP8266UPnP.h>
    
    void setup() {
      // 初始化Wi-Fi连接...
      // 然后初始化TinyUPnP
      UPnP.begin();
      UPnP.addPortMappingConfig(80, "TCP", 80, "YourDeviceName", "Description");
    }
    
    void loop() {
      // 检查并更新端口映射,可选的reconnect函数用于重新连接Wi-Fi
      UPnP.updatePortMappings(600000, nullptr);
      // 其他业务逻辑...
    }
    

应用案例和最佳实践

TinyUPnP非常适合于以下场景:

  • 智能家居设备:使设备如摄像头、智能灯等可以通过互联网远程控制。
  • 游戏主机:自动开启必要的游戏端口,改善在线游戏体验。
  • 个人服务器:对于部署在家庭网络内的Web服务器或其他服务,自动暴露对外的服务端口。

最佳实践

  • 总是确保在不需要时关闭端口映射以提高安全性。
  • 使用动态DNS(如EasyDDNS配合使用)以便于外部访问,即使IP地址变化也能保持连通性。
  • 定期检查和管理端口映射列表,避免不必要的映射占用资源。

典型生态项目

由于TinyUPnP专注于提供简单的UPnP服务,其通常集成在更复杂的IoT项目中,比如智能家居自动化系统或是任何需要自托管网络服务的DIY项目中。这些项目可能涉及到使用ESP8266或ESP32作为核心控制器,配合各类传感器和执行器,构建能够自我管理和通过互联网交互的智能设备网络。

开发者社区内,许多基于ESP平台的智能家居解决方案都可能会间接或直接利用TinyUPnP的功能,以实现设备与外界的无缝通信,尽管具体的生态项目实例难以一一列举,但你可以在论坛和开源项目中寻找灵感,例如在Home Assistant社区或OpenHAB项目中的物联网设备集成示例。


以上就是关于TinyUPnP的基本使用指南,希望能帮助您快速上手并有效利用这个强大的开源工具。

TinyUPnPA very small UPnP IGD implementation for your ESP8266 for automatic port forwarding项目地址:https://gitcode.com/gh_mirrors/ti/TinyUPnP

【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张飚贵Alarice

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值