![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
爬虫
文章平均质量分 82
爬虫
胡桃夹子zy
这个作者很懒,什么都没留下…
展开
-
记录-selenium简单实现自动点击操作
最近测试规则,网页上每条测试只能手动点测试,想写个脚本实现自动点击,网上收集资料可以用selenium实现,模拟人登录。import seleniumfrom selenium import webdriverfrom selenium.webdriver.common.by import By现收集如下材料:使用selenium模拟打开谷歌浏览器:1、要下载浏览器版本对应的ChromeDriver驱动包:下载网址2、打开谷歌浏览器# 找打刚才安装的chromedriver.exe的位置原创 2021-01-01 13:38:20 · 3685 阅读 · 1 评论 -
爬虫-图像批量下载实战
import requestsfrom bs4 import BeautifulSoup import os# 通过图片网页地址,写入到本地def get_image(url,fn): resp =requests.get(url) with open('头像\{}.png'.format(fn),'wb') as f: f.write(resp.content) # 图片要要通过二进制格式写入# 获取网页、网页解析def loan_image(url):原创 2020-06-07 21:44:42 · 409 阅读 · 0 评论 -
python网络爬虫基础学习-2
2.网页解析Beautiful Soup库是解析、遍历、维护“标签树”的功能库2.1 Beautiful Soup功能介绍Beautiful Soup解析器:soup = BeautifulSoup(r.text, ‘htlm.parser’)r.text即在用request库获得的网页内容‘htlm.parser’ 是一种解析器,解析器有多种可选,具体见下图:>>>url ='https://python123.io/ws/demo.html'>>&原创 2020-06-13 21:54:46 · 218 阅读 · 0 评论 -
python网络爬虫基础学习-1
基础爬虫学习,满足数据分析时需要对有关网站爬取以获取数据。网络爬虫一般流程获取网页解析网页提取内容保存数据1.获取网页使用requets库的相关功能对网页发起请求并返回响应1.1 requests介绍1.1.1 requests库的主要方法这些方法对应的HTTP功能如下:实际上,后面6个方法是第一个方法request的特例:例如:requests.request(‘GET’,url) 与 requests.get(url ) 功能一致。上述kwargs13原创 2020-06-13 21:01:11 · 187 阅读 · 0 评论