Python爬虫实例:豆瓣Top250榜单爬取
数据库课程设计需要一批真实的电影数据,故博主选择豆瓣Top250榜单作为数据来源。
本次爬虫任务较为简单,唯一的难点在于正则语句的编写,故不进行分析。博主参考并改进了杨茜麟提供的代码,在其基础上增加了几个爬取的属性,最终爬取的属性为:排名、名字、导演、年份、地区、类型、评分。
代码如下:
import json
import requests
from requests.exceptions import RequestException
import re
import time
#判断爬取是否错误
def get_one_page(url):
try:
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.132 Safari/537.36'
}
response = requests.get(url, headers=headers)
if response.status_code == 200:
return response.text
return None
except RequestException:
return None
def parse_one_page(html):
pattern = re.compile('<li>.*?<em class="">(.*?)</em>.*?title.*?>(.*?)</span>.*?<p class="">.*?导演: (.*?) .*?<br>\n (.*?) / (.*?) / (.*?)\n.*?<span class="rating_num" property="v:average">(.*?)</span>',re.S)
items = re.findall(pattern, html)
for item in items:
yield {'排名': item[0],
'名字': item[1],
'导演': item[2],
'年份': item[3],
'地区': item[4],
'类型': item[5],
'评分': item[6]
}
def write_to_file(content):
with open('douban250.txt', 'a', encoding='utf-8') as f:
f.write(json.dumps(content, ensure_ascii=False) + '\n')
def main(offset):
url = 'https://movie.douban.com/top250?start='+str(offset)+'&filter='
html = get_one_page(url)
for item in parse_one_page(html):
write_to_file(item)
if __name__ == '__main__':
for i in range(10):
main(offset=i * 25)
time.sleep(1)
在实际测试中发现豆瓣的反爬机制较弱,只要不过分地请求均不会封禁ip,可直接进行爬取。
部分爬取结果展示:
原文链接:https://blog.csdn.net/chandler_scut/article/details/108320439