Robi改造计划RTP---更改计划,先跑通tensorflow,后ROS

好吧,我承认自己玩的项目就是爽,想改就改咯,没有人抱怨哈:)))

看了tensorflow的那个demo实在太爽了,对图片中物体识别率高于(我视为达到吧)人类!

一个机器人不就需要这么点神奇吗?

先把tensorflow在pi3上跑通了,然后再集成到ros,让机器人看图说话,不是很屌的样子吗?!

要装tensorflow,先装bazel;要装bazel,先装好protobuf,要装protobuf,先能访问google下载gmock。。。。。

还好最近无意中找到了灯笼,昨天跑了一夜protobuf刚刚装好。

----------------------------------------------------------------------------------------------------------------------------------------------------

装bazel搞半天一直报内存不够,javac也不考虑swap出来的内存,靠,有点虐心。

我不打算折腾java了,在整个github上还好找到了唯一一个项目成功编译tensorflow在pi3上;我就下载他的轮子算了(看这位兄台也是今年3月份刚刚跑通,好险,0.8的版本7天前刚编译通过),看这位samjabrahams(Intel上班的,写c代码做底软的)更新挺及时,这事看来不用太操心了。

已经安装上并可以工作了:


----------------------------------------------------------------------------------------------------------------------------------------------------

2016.5.13 刚看到Google把他的语言模型贡献出来了,太牛逼了,

 顿时觉得Robi改造的技术难点消失了 。。。。

图像和语音问题都可以在google的开源的技术下面搞定了。


----------------------------------------------------------------------------------------------------------------------------------------------------

2016.5.23更新:

我发现这里面就是个坑:本来我就是想把robi改造得牛逼一点、智能一点。但是我发现我陷入了深度学习、CNN之类的google的东西里面。

物体侦测、物体识别,都得阅读和理解他们家东西;

语义理解那里还有个巨大的坑,靠。识别要不要继续用google家的东西整?这太费时间了。。。

用Inception模型跑物体识别已经可以工作了,要跑15s出结果,比opencv的人脸识别要慢很多。

这两天一直在想既然物体已经识别出来了,在这之前想必已经跑过物体侦测了,我只需要从graph里面提取物体侦测信息就行了,要不然在一堆花花草草里面计算一只狗干扰太大。

但是现在看起来好像Inception还真的主要只是用来做识别的,做物体检测需要另外跑一遍另一个模型?

还在继续看。。。

多天前网上看到google的multibox(根据paper应该是google在imagenet 2014上用的)和新的用inception跑的但是非官方的tensorbox,也许是一个方案?

https://github.com/google/multibox

https://github.com/Russell91/TensorBox

----------------------------------------------------------------------------------------------------------------------------------------------------

2016.5.27更新:

这几天在整ROS。inception识别的信息可以发出来了,在整合伺服电机控制、tts和stt进来。

目前感觉ros的topic机制以及后来整出来的server以及又整出来的actionlib有点乱,也许有一天他们会参考通信行业里成熟的做法把这一切整合成一个很统一、可伸缩的架构;但也许也够用了,拭目以待吧。目前感觉有点凌乱不够严谨强壮的感觉。

先用着吧,也许也够用了。

--------------------------------------------------------------------------------------------------------------------------------------------

2016.6.8更新:

仿照“分层”的概念我把控制程序也分层了,大体布置好了node间用什么。

现在正进入moveit的坑中;另外我发现顶层cortexn可能需要弄个“行为树”,所以看了一通游戏AI的东西------很久以前我就觉得电脑人物控制得很有意思,看起来很智能的样子,现在才知道简单的FSM就能实现半条命的机器人,太惊讶了。

而且还惊讶地知道九几年就出来的比如足球游戏里面的ai是最难做的,rts其次,fps再其次。




对本项目感兴趣可加微$信:ckingcfx并说明想做哪一块

对本项目感兴趣可加微$信:ckingcfx并说明想做哪一块

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值