import requests
import os
from bs4 import BeautifulSoup
def getHtml(url,kv):
try:
r = requests.get(url,params=kv)
r.raise_for_status()
r.encoding='utf-8'
return r.text
except:
return '抓取失败'
def getJpg(page):
Path = 'D://huojianhua//'
Url='https://movie.douban.com/celebrity/1015713/photos/'
if not os.path.exists(Path):
os.makedirs(Path)
for page in range(page):
kv = {'type':'C','start':str(page*30),'sortby':'size','size':'a','subtype':'a'}
html = getHtml(Url,kv)
soup = BeautifulSoup(html,'html.parser')
uls = soup.find_all('ul' , {'class':'poster-col3 clearfix'})
filename=1
for ul in uls:
imgs = ul.find_all('img')
for img in imgs:
imgUrl = img['src']
Jpg = requests.get(imgUrl).content
with open(Path+str(filename)+'.jpg','wb') as pf:
pf.write(Jpg)
filename+=1
if __name__ == '__main__':
getJpg(2)
这次使用的BeautifulSoup,简单方便,适合初学者
本文介绍了一种使用 Python 的 requests 和 BeautifulSoup 库来爬取豆瓣网站上火 Jian Hua 相册图片的方法。代码实现了通过指定页数抓取图片,并将其保存到本地指定文件夹的功能。


被折叠的 条评论
为什么被折叠?



