- 博客(2)
- 收藏
- 关注
转载 获取全站URL、关键字获取URL、获取图片
#coding:utf-8 #百度搜索爬虫,给定关键词和页数以及存储到哪个文件中,返回结果去重复后的url集 合 # 网页url采集爬虫,给定网址,以及存储文件,将该网页内全部网址采集下,可指定文件存储方式 import requests,time from lxml import etree """ url:给定的url save_file_name:为url存储文件 """ ...
2018-05-15 15:17:02
3574
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人