问题描述
在B站看[小甲鱼]零基础入门学习PythonP57集时遇到了一些问题,现在煎蛋网的的图片每一页的网址和视频里的不太一样,看弹幕有的说能爬,有的说不能爬,也没有标明日期,当时挺懵逼的,不知道该怎么办,硬着头皮看到最后,发现有弹幕说是用了base64加密,其它弹幕反响不错,感觉挺靠谱的,就百度了一下,最后终于成功爬取。小甲鱼的视频看到这里,这应该是第一个让我小有成就的实例,在这里分享给大家,希望和我遇到同样问题的朋友都能完成并继续学习下去,加油诸位。
具体参考了这篇文章https://blog.csdn.net/qq_45859272/article/details/107707560。
代码实现
# date 2021/1/15 - 20:13
import urllib.request
import time
import base64
import os
def url_open(url):
req = urllib.request.Request(url)
req.add_header('User-Agent',
'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36')
response = urllib.request.urlopen(req)
html = response.read()
return html
# 获取当前图片的总页数,返回总页数的字符串
def get_page(url):
html = url_open(url).decode('utf-8')
a = html.find('current-comment-page') + 23
b = html.find(']', a)
return html[a:b]
# 找到每一页所有图片的网址,返回一个列表
def find_imgs(url):
html = url_open(url).decode('utf-8')
img_addrs = []
a = html.find('img src=')
while a != -1:
b = html.find('.jpg', a, a + 255)
if b != -1:
img_addrs.append('http:' + html[a + 9:b + 4])
else:
b = a + 9
a = html.find('img src=', b)
return img_addrs
# 根据图片网址,写入图片到当前工作目录
def save_imgs(img_addrs):
for each in img_addrs:
filename = each.split('/')[-1]
with open(filename, 'wb') as f:
img = url_open(each)
f.write(img)
'''
这里我并没有把所有图片都放在一个目录下,而是放在了图片对应页数命名的子目录
记得把folder改成自己的!!!
'''
def download_mm(folder=r'C:\Users\Razer\Pictures\OOXX', pages=3):
url = 'http://jandan.net/ooxx/'
page_num = int(get_page(url))
for i in range(pages):
'''
小甲鱼用page_num-=i没有按顺序访问页面,
大家可以写个for循环遍历一下就知道了,
之所以能发现也是因为试着用页数当文件名(*^-^*)
'''
# page_num -= i
imgpage = page_num - i
imgpath = folder + '\%d' % imgpage
# 判断imgpath目录是否存在
if not os.path.exists(imgpath): # 如果不存在则创建
os.makedirs(imgpath)
os.chdir(imgpath) # 将imgpath设置为当前工作目录
else: # 如果存在,就跳过,创建下一页的目录
continue
'''
http://jandan.net/ooxx/MjAyMTAxMTYtMTA5#comments
MjAyMTAxMTYtMTA5是对'当前日期—页数'也就是'20210116-109'的base64加密
'''
s = time.strftime("%Y%m%d-") # 将当前日期格式化为形如'20210116-'的字符串
d = '%d' % imgpage
c = s + d
b = base64.b64encode(c.encode('utf-8')).decode("utf-8")
page_url = url + b + '#comments'
img_addrs = find_imgs(page_url)
save_imgs(img_addrs) # 会直接在当前工作目录下写入照片,所以不需要再传入文件路径
if __name__ == '__main__':
download_mm()