爬虫实战代码(Requests+Xpath)

import requests
from lxml import etree
import time
import json


def get_one_page(url):
    try:
        headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36'}
        response = requests.get(url, headers=headers)
        if response.status_code == 200:
            return response.text
        else:
            return None
    except:
        return None


def parse_one_page(text):  # 电影名称,时间,评分,图片,主演,上映时间
    content = []

    html = etree.HTML(text)
    title = html.xpath('//dd//div//a[@data-act="boarditem-click"]/text()')
    time = html.xpath('//dd//p[@class="releasetime"]/text()')
    score = html.xpath('//dd//div//p[@class="score"]//text()')
    actor = html.xpath('//dd//div//p[@class="star"]/text()')
    index = html.xpath('//dd//i[contains(@class,"board-index")]/text()')

    for i in range(len(title)):
        temp = {}
        temp['index'] = index[i]
        temp['title'] = title[i]
        temp['time'] = time[i][5:15]
        temp['score'] = score[2*i]+score[2*i+1]
        temp['actor'] = actor[i].strip()[3:]
        content.append(temp)

    return content


def write_to_file(content):
    for i in range(len(content)):
        with open('content.json', 'a+', encoding='utf-8') as fp:
            fp.write(json.dumps(content[i], ensure_ascii=False) + '\n')  # 将字典转化为str


if __name__ == '__main__':
    for i in range(10):
        html = get_one_page('https://maoyan.com/board/4?offset='+str(10*i))
        write_to_file(parse_one_page(html))
        time.sleep(1)  # 每次停一秒,防止被封IP

PS:我在爬取电影图片时遇到了问题,有兴趣的朋友可以尝试一下,如果成功了,可以交流一下。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值