爬虫-豆瓣电影数据提取

import requests
import re
import json

def get_one_page(url):
headers={‘User-Agent’:’ Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36’}
response=requests.get(url,headers)
if response.status_code==200:
return response.text
return None

def parse_one_page(html):
pattern=re.compile(’<em.?>(.?).?<span.?“title”>(.?).?<p.?>(.?)&nbsp.?
(.
?)&nbsp.*?

’,re.S)
items=re.findall(pattern,html)
for item in items:
yield {
‘index’:item[0],
‘title’:item[1],
‘director’:item[2].strip()[3:] if len(item[2])>3 else ‘’,
‘time’:item[3].strip(),
}
def write_to_file(content):
with open(‘result.txt’,‘a’,encoding=‘utf-8’) as f:
# print(json.dumps(content))
f.write(json.dumps(content,ensure_ascii=False)+’\n’)

def main(start):
url=‘https://movie.douban.com/top250?start=’+str(start)+’&filter=’
html=get_one_page(url)
result=re.search(’<ol.?>(.?)’,html,re.S) #得到网页中关于排行榜的内容
for item in parse_one_page(result.group(1)):
write_to_file(item)

if name==‘main’:
for i in range(10):
main(start=i*25)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值