爬虫
文章平均质量分 73
_超人_
这个作者很懒,什么都没留下…
展开
-
爬取英语六级高频词
文章目录任务一、指定url二、发起请求并获取响应数据三、对响应数据进行数据解析四、持久化存储总结 任务 将网站中所有英语六级高频词以及翻译获取,然后进行存储 一、指定url 网站中单词被分开存放在1-7页中 第1页的url:http://www.oh100.com/kaoshi/cet6/cihui/249585.html 第2页的url:http://www.oh100.com/kaoshi/cet6/cihui/249585_2.html 第3页的url:http://www.oh100.co.原创 2021-03-13 23:59:40 · 745 阅读 · 1 评论 -
requests库在爬虫中最常用方法简析
requests是基于urlib3的用于发起http请求的python第三方库,使用方便,响应快速。原创 2021-03-13 17:23:52 · 281 阅读 · 1 评论