Requests+正则表达式爬取猫眼电影top100榜单
流程框架
- 抓取单页内容:利用requests请求目标站点,得到单个网页html代码,返回结果。
- 正则表达式分析:根据HTML代码分析得到电影的名称、主演、上映时间、评分、图片链接等信息。
- 保存至文件:通过文件的形式将结果保存,每一部电影一个结果,一行json字符串。
- 开启循环级多线程:对多页内容遍历,开启多线程提高抓取速度。
爬虫实战
打开Pycharm-->创建项目MaoYanTop100-->创建py文件spider.py
import re
import requests
import json
#导入异常处理模块
from requests.exceptions import RequestException
#导入进程池
from multiprocessing import Pool
#设置请求头。因为有人说ip被封,所以需要添加请求头或者代理。但是实测不添加请求头同样可以请求成功。
headers={ 'User-Agent': ' Mozilla/5.0 (Windows NT 10.0; Win64; x64)'
' AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'}
#定义请求函数
def get_one_page(url):
try:
#需要给requests添加请求头
response=requests.get(url)
if response.status_code==200:
return response.text
return None
except RequestException:
return None
#对网页进行解析
def parse_one_page(html):
#设置正则匹配式
pattern=re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a.*?>(.*?)</a>'
+'.*?star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)
items=re.findall(pattern,html)
for item in items:
yield{
'index':item[0],
'image':item[1],
'title':item[2],
'actor':item[3].strip()[3:],
'time':item[4].strip()[5:],
'score':item[5]+item[6]
}
#写入文件
def write_to_file(content):
#防止中文乱码,将encoding设为utf-8,并在写入时,将ensure_ascii设为False
with open("result.txt",'a',encoding='utf-8') as f:
#每一行结果都为字典类型,使用json.dumps(conten)将结果转为字符串类型
f.write(json.dumps(content,ensure_ascii=False)+'\n')
f.close()
#主函数
def main(offset):
url='http://maoyan.com/board/4?offset='+str(offset)
html=get_one_page(url)
# print(html)
for item in parse_one_page(html):
print(item)
write_to_file(item)
if __name__ == '__main__':
for i in range(10):
main(i*10)
#使用进程池
# pool=Pool()
# pool.map(main,[i*10 for i in range(10)])
#问题: 会造成异步访问,数据缺失。