前言:在自动化测试脚本中用ActionChains里的点击屏幕坐标的函数带来了一个小问题,后来用pyautogui中的点击函数解决了,然后我就想比较下这两个库在点击屏幕上某一个点这一操作的区别。看了部分源码和文档,并没能解决前面的问题,只能说对这两个库有了简单的认识,后续若有进一步的认识,会及时更新。
PyAutoGUI文档: Welcome to PyAutoGUI’s documentation! — PyAutoGUI documentation
ActionChains文档:selenium.webdriver.common.action_chains — Selenium 4.7 documentation
PyAutoGUI简介
PyAutoGUI可以让python脚本控制键盘和鼠标来实现和其它应用的自动化交互。PyAutoGUI可在Windows、macOS和Linux上工作,并在Python 2和3上运行。
PyAutoGUI有下列几个特征:
- 在其他的应用窗口中移动鼠标并点击
- 向应用发送键盘命令
- 截图、给出图像、在屏幕上找到这个图像
- 定位应用程序的窗口,移动、调整大小、最大化、最小化或关闭它(目前仅适用于windows)
- 显示警报和消息框
ActionChains简介
ActionChains是实现低级交互自动化的方法,如鼠标移动、鼠标按钮操作、按键和上下文菜单交互。当通过ActionChains对象调用actions的各种方法时,这些actions会存储在对象的队列中。当调用perform()时,这些actions事件会按照它们进队列的方式被触发(先进先出)。
点击屏幕上某个像素点的调用流程
内容如有错误,敬请指正!