import requests
class QiuShiBaiKe():
def __init__(self):
"""
初始化参数
"""
self.url_bash = 'https://www.qiushibaike.com/imgrank/{}'
self.headers = {"User-Agent":"ADC"}
def url_lists(self):
"""
生成下载列表
:return:
"""
return [self.url_bash.format(i) for i in range(1,11)]
def dowmload_url(self,url_str):
"""
使用requests get下载指定页面 并返回页面结果
:param url_str: 下载链接 就是run函数里面的lits
:return: 下载结果
"""
result = requests.get(url_str,headers = self.headers)
return result.content
def save_result(self,result,num):
"""
保存下载内容
:param result: 爬去的页面
:param num: 页码
:return: 返回名字叫result.html的文件
"""
filte_url = 'imgrank--第{}页.html'.format(num)
with open(filte_url,'wb') as f:
f.write(result)
def run(self):
"""
下载主线程 实现主要逻辑
:return:
"""
url_lits = self.url_lists()
for lits in url_lits:
result_str = self.dowmload_url(lits)
num = url_lits.index(lits) + 1
self.save_result(result_str,num)
if __name__ =='__main__':
qiushi = QiuShiBaiKe()
qiushi.run()
第一次接触爬虫 请多多支持 .....