- 👋 Hi, I’m @货又星
- 👀 I’m interested in …
- 🌱 I’m currently learning …
- 💞️ I’m looking to collaborate on …
- 📫 How to reach me …
项目场景:
OpenCV实现手势音量控制:使用OpenCV和mediapipe库进行手势识别,并利用手势距离控制电脑音量。
问题描述
今天在网上看到这个博主利用OpenCV实现手势音量控制,于是我试了一下这个代码,安装库后发现还没办法顺利运行。显示
INFO: Created TensorFlow Lite XNNPACK delegate for CPU.
原因分析:
我在csdn,GitHub,知乎等上找了很久,没有找到好的解决方案,于是我问了一下chatgpt。
它告诉我们这是一个日志信息,我意识到这可能不是报错,不是代码无法顺利运行的原因。接着我翻了一下评论区,发现有人把第134行的or cv2.getWindowProperty(‘MediaPipe Hands’, cv2.WND_PROP_VISIBLE) < 1注释掉就可以正确运行了,但我试完还是不行。
于是我又让chatgpt写了一个用OpenCV打开摄像头的代码,试了一下,能够正确运行。
import cv2
cap = cv2.VideoCapture(0)
while True:
# 从摄像头读取一帧图像
ret, frame = cap.read()
# 如果读取成功,显示图像
if ret:
cv2.imshow('Camera', frame)
# 按下'q'键退出循环
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 如果读取失败,显示错误信息并退出循环
else:
print("无法获取摄像头画面")
break
cap.release()
cv2.destroyAllWindows()
接着我把博主134行的代码换成gpt的代码,就可以了。
解决方案:
将博主134-135行的代码修改为chatgpt的代码就可以了:
if cv2.waitKey(5) & 0xFF == 27 or cv2.getWindowProperty('MediaPipe Hands', cv2.WND_PROP_VISIBLE) < 1:
break
修改为
# 按下'q'键退出循环
if cv2.waitKey(1) & 0xFF == ord('q'):
break