Cozmo&AI作业

学习下面链接内容,将其实现并应用到Cozmo或mrobot机器人中。




参考链接:

1. ros_caffe:github.com/tzutalin/ros_caffe

2. Tensorflow_in_ROS:github.com/shunchan0677/Tensorflow_in_ROS

3. cozmo-tensorflow:github.com/whatrocks/cozmo-tensorflow


ros_people_object_detection_tensorflow

github.com/cagbal/ros_people_object_detection_tensorflow

广泛使用的ROS工具箱,用于物体检测和跟踪以及面部/动作识别,具有2D和3D支持,使机器人了解周围的环境。

 

技术

此repo使用许多开源项目来正常工作:

对于Tracker部分:

  • scikit学习
  • scikit图像
  • FilterPy

安装

首先,应在您的系统上安装tensorflow。

然后,

$ cd && mkdir -p catkin_ws/src && cd ..
$ catkin_make && cd src
$ git clone --recursive https://github.com/cagbal/
ple_object_detection_tensorflow.git
$ git clone https://github.com/cagbal/cob_perception_common.git
$ cd cob_people_object_detection_tensorflow/src
$ protoc object_detection/protos/*.proto --python_out=.
$ cd ~/catkin_ws
$ rosdep install --from-path src/ -y -i
$ catkin_make
$ pip install face_recognition

repo包含最快的基于mobilenet的方法,因此您可以跳过以下步骤。

然后,从 Models Zoo中安装tensorflow对象检测模型

并将这些模型放入src / object_detection /,最后设置launch / cob_people_object_detection_tensoflow_params.yaml的model_name参数

运行

在ROS中打开相机驱动程序,并在启动目录下的yaml配置文件中设置输入RGB主题名称。默认值为openni2。

用于运行一切,(这将适用于2D和3D)

$ roslaunch cob_people_object_detection_tensorflow alltogether.launch

上面的代码将启动所有内容。它非常适合从这个回购开始。但是,如果您需要一些灵活性,则需要逐个启动每个节点。如下:

对于物体检测:

$ roslaunch cob_people_object_detection_tensorflow cob_people_object_detection_tensorflow.launch

然后,它开始为每个检测到的对象分配ID,并将结果发布到/ object_tracker / tracks。请注意,检测到的跟踪对象编号可能不同。

如果您还想运行跟踪器,

$ roslaunch cob_people_object_detection_tensorflow cob_people_object_tracker.launch

如果您还想运行face_recognition,

将人脸图像放入人员文件夹并启动:

$ roslaunch cob_people_object_detection_tensorflow cob_face_recognizer.launch

如果你还想运行深度探测器,

$ roslaunch cob_people_object_detection_tensorflow projection.launch

并设置detections.pose.pose.position.x / y / z并将其设为pusblishes。

如果您还想运行动作识别,

$ roslaunch cob_people_object_detection_tensorflow action_recognition.launch

然后,您将看到/ action_recognition / action_predictions上发布的概率

Subscibes:订阅

  • 到* params.yaml文件中设置的任何RGB图像主题。

     Publishes:发布

  • / object_detection / detection(cob_perception_msgs / DetectionArray)包括所有具有概率,标签和边界框的检测
  • / object_detection / detections_image(sensor_msgs / Image)带有边界框的图像
  • / object_tracker / tracks(cob_perception_msgs / DetectionArray)仅包含跟踪对象及其边界框,标签。这里,ID是跟踪器分配的检测ID。示例:DetectionArray.detections [0] .id
  • / face_recognizer / faces(cob_perception_msgs / DetectionArray)带有面部和人物边界框的面部标签
  • / action_recognition / action_predictions(cob_perception_msgs / ActionRecognitionmsg)使用Kinetics 600数据集标签的动作识别概率

性能

我的计算机(Intel(R)Core(TM)i7-6820HK CPU @ 2.70GHz)的最后五次检测时间为几秒钟:

  • 0.105810880661
  • 0.108750104904
  • 0.112195014954
  • 0.115020036697
  • 0.108013153076

 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Cozmo安卓版3.0.0是一款人工智能机器人的最新版本。Cozmo是一款由Anki公司开发的小型机器人,具有丰富的功能和互动性。这个3.0.0版本带来了许多令人兴奋的新功能和改进。 首先,Cozmo安卓版3.0.0增加了更多的游戏和活动选项。现在,你可以玩更多种类的游戏,如追踪球、记忆游戏和障碍赛跑等。这些游戏不仅能够给用户带来乐趣,还可以提高他们的逻辑思维和反应能力。 其次,Cozmo 3.0.0增强了其语音识别技术。现在,你可以用声音指令来控制Cozmo的移动和行为。你可以让他前进、后退、左转、右转,甚至做一些特定动作。这使得与Cozmo的互动更加便捷和自由。 此外,Cozmo 3.0.0还引入了人脸识别功能。现在,Cozmo可以识别不同的人脸,并与人们进行更有意义的互动。它可以跟踪人脸的位置,做出相应的动作和表情,增强了与用户的情感连接。 最后,Cozmo安卓版3.0.0还增加了更多的编程功能。它支持使用Blockly编程语言来编写自定义的行为和动作。用户可以通过简单地拖动和放置代码块来控制Cozmo的行为,这为用户提供了更多的创造力和自由空间。 总之,Cozmo安卓版3.0.0是一款功能丰富的人工智能机器人,带来了更多的游戏选项、改进的语音识别技术、人脸识别功能和编程功能。通过与Cozmo的互动,用户可以获得更加有趣和有意义的体验。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值