from urllib.request import urlopen
from bs4 import BeautifulSoup
import urllib
import os
from urllib.request import urlretrieve
os.makedirs('./wlw34/',exist_ok=True) #创建一个文件夹,且可被覆盖
url='https://www.yinkuan.club/index_photo.html' #设置链接地址
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64) '
'AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/81.0.4044.92 Safari/537.36'} #浏览器伪装
req= urllib.request.Request(url,headers=headers)
html=urlopen(req).read().decode('utf-8')
soup=BeautifulSoup(html,'lxml') #解析数据
img=soup.find_all('img')
print(img) #显示图片名称
main_url='https://www.yinkuan.club/index_photo.html'
i=1
for mdw in img:
img_url=mdw['src']
save_name=img_url.split('/')[-1]
real_url=main_url+img_url
print(img_url)
urlretrieve(real_url,'./wlw34/%s'%save_name)
i=i+1
print("成功下载图片:%s"%save_name) #显示成功下载图片名称
这个方法只能爬取一般的网站,如果网站有反爬虫机制则需要具体分析。