0x00 前言
实战的第一个爬虫,是跟着崔庆才python3网络爬虫教材做的。
因为是第一次,还是有必要记录一下的 ^_^ (虽然简单,但是激动!)
0x01 开发工具
IDE:PyCharm Community
python版本:3.7.0
相关模块:requsts模块;re模块以及python自带的一些模块。
0x03 数据爬取
目标页面是猫眼榜单的 top100榜。长这样子:
可以看见总共分了10页,由每页的url可以知道每个页面是由offset参数指定的。
接着分析网页的源码,找到我们想要爬取的信息。
可以看到每部电影信息都是在<dd>标签中,我们想要的排名,影片图片,名称,主演,上映时间和评分也都在相应的标签之中,通过一些关键信息利用正则表达式可以提取出这些信息。那么思路就很清晰了:
1.使用requests得到每一页的内容
2.正则表达式匹配想要的信息
3.序列化提取出的信息并保存到文件中
import requests
import re
from requests.exceptions import RequestException
import json
#得到单页的内容,加了一些异常处理
def get_one_page(url):
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
return None
except RequestException:
print('requests error!')
return None
#解析单页的内容,提取想要的信息并序列化
def parse_one_page(html):
pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
+ '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
+ '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)
items = re.findall(pattern,html)
for item in items:
yield {
'index': item[0],
'image': item[1],
'title': item[2],
'actor': item[3].strip(),
'time': item[4],
'score': item[5]+item[6]
}
#main函数
def main(offset):
url = 'https://maoyan.com/board/4?offset=' + str(offset)
html = get_one_page(url)
for item in parse_one_page(html):
#print(item)
write_to_file(item)
#写入文件
def write_to_file(content):
with open('result.txt','a',encoding='utf-8') as f:
# 使用dumps函数时注意添加ensure_ascii参数,不然保存到文件里中文会变成Unicode编码
f.write(json.dumps(content, ensure_ascii=False) + '\n')
f.close()
if __name__ == '__main__':
for i in range(10):
main(i*10)
爬取结束。效果如下:
PS:如果嫌迭代太慢的话,可以利用多线程,几乎实现秒抓,但由于多线程共同运行的原因在写入文件的时候可能不会按照排名顺序保存:
from from multiprocessing import Pool
if __name__ == '__main__':
pool = Pool()
pool.map(main, [i*10 for i in range(10)])