一、简单来说就是可以通过各种方式从web抓取各种信息
1、可以更少的步骤访问网页内容,不需要打开浏览器,使用webbrowser
2、从web下载东西使用requests[pip3 install requests]
request.get()函数下载一个网页
3、HTML决定网页的格式,request下载html字符串,从字符串中找到你感兴趣的内容
4、beautiful soup从html中提取信息
可以自动打开网页搜索出你想要的结果
5、selenium工具,由于启动了浏览器,所以下载慢
6、总结:requests 模块让下载变得很简单,加上 HTML 的概念和选
择器的基本知识,你就可以利用 BeautifulSoup 模块,解析下载的网页。
但要全面自动化所有针对网页的任务,你需要利用 selenium 模块,直接控制
Web 浏览器。selenium 模块将允许你自动登录到网站,填写表单。因为Web 浏览器是
在因特网上收发信息的最常见方式,所以这是程序员工具箱中一件了不起的工具
python自动化web
最新推荐文章于 2024-07-24 19:45:52 发布