立镖机器人浙江_立镖机器人携小黄人亮相亚洲物流展

2020年亚洲物流技术与运输系统展览会中,立镖机器人展示了其高度柔性化的桌式分拣系统,主打产品小黄人分拣机器人具备模块化设计、高稳定性和智能高效等特点,适用于多个行业。作为全球智能分拣机器人首创者,立镖机器人拥有众多发明专利,并将持续推动物流全流程自动化,引领智慧物流新时代。
摘要由CSDN通过智能技术生成

  业界期待许久的物流盛会——2020年亚洲国际物流技术与运输系统展览会(CeMAT ASIA)盛大开幕。本届展会以“智慧物流”为系列主题,致力于推动现代物流行业的高速发展,为各企业在亚太地区的物流行业蓬勃发展提供坚实有力的展现平台。

  本次展览会,立镖机器人根据针对订单分拣需求,研发了高度柔性化的桌式分拣系统。前沿、硬核、有料,立镖机器人引领智慧物流的创新变革方案,一起来见证!

立镖机器人展位台N1-C1

ee84e63ba7ef2b22f935d5e1baad2774.png

分拣机器人——小黄人

dd2b6ca3620760f0a81825af56a27c4e.png

a38158fa677cdc6e220ac66ac17ae2ec.png

基本参数

  外形尺寸:480*380*230

自身重量:9KG

额定载额:5KG

导航方式:魔毯导航

运行时间:充电五分钟,运行四小时

工作温度:-30°C~-55°C

方案特点

 模块设计,高度柔性

高稳定性,高准确率

调度灵活,智能高效

投资灵活,汇报周期短

适配性强,部署便捷

可视化管理,更直观

适用行业

  快递行业、零售行业、生鲜行业、餐饮行业、工厂制造行业、冷库行业等。

亮眼时刻:

89784f95a8ad0cdd96dc9a3ebe8cf9db.gif

574bb52b591c98b02ca191dae20b5689.gif

  据悉,浙江立镖机器人有限公司是智能分拣机器人全球首创者、全球领先的柔性智能分拣解决方案供应商,创造了世界首个便携式、模块化、自动化单元分拣系统,公司集物流自动化、智能化设备的创新、研发、生产、销售为一体。

  立镖主创团队拥有近20年自动化控制技术积累,自2016年成立立镖机器人以来,公司始终专注于物流自动化技术的研发与创新,注重原创性智能领域技术、自主系统底层与应用开发,产品全部属于自主研发的专利产品,已累积拥有90多项独家发明专利。立镖机器人以分拣机器人系列产品为中心,以自动控制系统、自动扫描称重系统、智能充电系统等为配套组件,逐步为智慧物流构建起丰富的产品生态体系。

  未来,立镖机器人将继续秉持“让世界更高效”的愿景,以智慧底层技术为基础,以智能分拣机器人为起点,逐步向其它规格、系列的物流机器人发展,致力于物流全流程自动化,引领智慧物流新时代。

推荐阅读

●MiR物流机器人首次服务捷克共和国

●全球25家无人自主载运车(ADVs)制造商

●爱普拉将携APSP系列锂电智能充电机亮相2020 CeMAT

●仓库自动化市场为长期经济增长做好准备

●美国华裔科学家发现坚固的软爪能使人机交互更加安全

●中国AGV网联合中叉网见证不一样的CeMAT Asia 2020

●Agility Robotics筹集了2000万美元,用于构建和部署用于人类空间工作的类人机器人

89027f71f0bfa686daf176b40574332d.png

348cc62678f51b9ac85e6e9b08ab06f5.png

f5a0348dbe12e8a864d653e297ceb450.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于YOLOv9实现工业布匹缺陷(破洞、污渍)检测系统python源码+详细运行教程+训练好的模型+评估 【使用教程】 一、环境配置 1、建议下载anaconda和pycharm 在anaconda中配置好环境,然后直接导入到pycharm中,在pycharm中运行项目 anaconda和pycharm安装及环境配置参考网上博客,有很多博主介绍 2、在anacodna中安装requirements.txt中的软件包 命令为:pip install -r requirements.txt 或者改成清华源后再执行以上命令,这样安装要快一些 软件包都安装成功后才算成功 3、安装好软件包后,把anaconda中对应的python导入到pycharm中即可(不难,参考网上博客) 二、环境配置好后,开始训练(也可以训练自己数据集) 1、数据集准备 需要准备yolo格式的目标检测数据集,如果不清楚yolo数据集格式,或者有其他数据训练需求,请看博主yolo格式各种数据集集合链接:https://blog.csdn.net/DeepLearning_/article/details/127276492 里面涵盖了上百种yolo数据集,且在不断更新,基本都是实际项目使用。来自于网上收集、实际场景采集制作等,自己使用labelimg标注工具标注的。数据集质量绝对有保证! 本项目所使用的数据集,见csdn该资源下载页面中的介绍栏,里面有对应的下载链接,下载后可直接使用。 2、数据准备好,开始修改配置文件 参考代码中data文件夹下的banana_ripe.yaml,可以自己新建一个不同名称的yaml文件 train:训练集的图片路径 val:验证集的图片路径 names: 0: very-ripe 类别1 1: immature 类别2 2: mid-ripe 类别3 格式按照banana_ripe.yaml照葫芦画瓢就行,不需要过多参考网上的 3、修改train_dual.py中的配置参数,开始训练模型 方式一: 修改点: a.--weights参数,填入'yolov9-s.pt',博主训练的是yolov9-s,根据自己需求可自定义 b.--cfg参数,填入 models/detect/yolov9-c.yaml c.--data参数,填入data/banana_ripe.yaml,可自定义自己的yaml路径 d.--hyp参数,填入hyp.scratch-high.yaml e.--epochs参数,填入100或者200都行,根据自己的数据集可改 f.--batch-size参数,根据自己的电脑性能(显存大小)自定义修改 g.--device参数,一张显卡的话,就填0。没显卡,使用cpu训练,就填cpu h.--close-mosaic参数,填入15 以上修改好,直接pycharm中运行train_dual.py开始训练 方式二: 命令行方式,在pycharm中的终端窗口输入如下命令,可根据自己情况修改参数 官方示例:python train_dual.py --workers 8 --device 0 --batch 16 --data data/coco.yaml --img 640 --cfg models/detect/yolov9-c.yaml --weights '' --name yolov9-c --hyp hyp.scratch-high.yaml --min-items 0 --epochs 500 --close-mosaic 15 训练完会在runs/train文件下生成对应的训练文件及模型,后续测试可以拿来用。 三、测试 1、训练完,测试 修改detect_dual.py中的参数 --weights,改成上面训练得到的best.pt对应的路径 --source,需要测试的数据图片存放的位置,代码中的test_imgs --conf-thres,置信度阈值,自定义修改 --iou-thres,iou阈值,自定义修改 其他默认即可 pycharm中运行detect_dual.py 在runs/detect文件夹下存放检测结果图片或者视频 【特别说明】 *项目内容完全原创,请勿对项目进行外传,或者进行违法等商业行为! 【备注】 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用!有问题请及时沟通交流。 2、适用人群:计算机相关专业(如计科、信息安全、数据科学与大数据技术、人工智能、通信、物联网、自动化、电子信息等)在校学生、专业老师或者企业员工下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值