您可以在此处找到Github项目存储库中的代码,或在此处查看最终的演示文稿幻灯片。
(github传送门:
https://github.com/athena15/project_kojak
PPT传送门:
https://docs.google.com/presentation/d/1UY3uWE5sUjKRfV7u9DXqY0Cwk6sDNSalZoI2hbSD1o8/edit#slide=id.g49b784d7df_0_2488)
灵感
想象一下,你正在举办一个生日聚会,每个人都玩的很开心,音乐也嗨到了极限,我们经常在抖音上看到的大声呼唤天猫精灵、小米小爱等智能音响的场景,在这种时候就不起作用了,很可能它们根本听不到你的声音,基本上你也找不到遥控器,但如果这个时候你在谈话当中张开一只手,某个手势,你的智能家居设备就可以识别这种姿势,关闭音乐,然后调亮灯光打到生日寿星的脸上。那确实是有点浪漫,也有点酷的。
背景
很长时间我都对手势检测感到好奇。我记得当第一部微软Kinect问世的时候- 我只用一挥手就可以玩游戏并控制屏幕。慢慢地,谷歌主页和亚马逊Alexa等设备发布,似乎手势检测失去了语音的雷达的支持。不过,随着Facebook门户网站和亚马逊回声秀(Amazon Echo Show)等视频设备的推出,我想看看是否有可能构建一个能够实时识别我的手势的神经网络,并运行我的智能家居设备!