Python爬虫实战之xpath爬取猫眼电影排名

  • 基本原理:
    • requests模块获取每一页的html文件,需要注意的是猫眼电影加了反爬虫,所以需要加上User-Agent
    • 通过xpath提取字段信息,为了整洁,通过切片和替换,去掉了一些字段信息
    • 通过csv模块,将数据写入csv
    • 代码如下:
#!/usr/bin/env python
# -*- coding:utf-8 -*-
# @Time    : 2020/06/02 22:36:03
# @File    : 猫眼电影爬取.py
# @Sortware: Vsc

import requests
from lxml import etree
import csv

def getSource(url):
    headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36'}
    response = requests.get(url, headers=headers)
    # 防止出现乱码
    response.encoding = 'utf-8'
    return response.text

def MovieItem(source):
    elements = etree.HTML(source)
    movie_items = elements.xpath('//div[@class="movie-item-info"]')
    # print(movie_items)
    item = []
    for movie_item in movie_items:
        dict = {}
        clip_url = movie_item.xpath('p[@class="name"]/a/@href')[0]
        clip_title = movie_item.xpath('p[@class="name"]/a/@title')[0]
        # 切片 去除不要的字段内容
        date_time = movie_item.xpath('p[@class="releasetime"]/text()')[0][5:]
        # 替换 切片 去除不要的内容
        star = movie_item.xpath('p[@class="star"]/text()')[0].replace('\n', '').replace(' ', '')[3:]
        
        # url格式化
        dict['url'] = f'https://maoyan.com{clip_url}'
        dict['title'] = clip_title
        dict['上映时间'] = date_time
        dict['主演'] = star
        item.append(dict)
    return item

# 写入 csv
def writeDate(item):
    with open('猫眼电影爬取.csv', 'w', encoding='utf-8') as f:
        f_csv = csv.DictWriter(f, fieldnames=['url','title','上映时间','主演'])
        f_csv.writeheader()
        f_csv.writerows(item)

if __name__ == '__main__':
    base_url = 'https://maoyan.com/board/4?offset={}'
    item = []
    for i in range(0,100,10):
        page_link = base_url.format(i)
        source = getSource(page_link)
        item += MovieItem(source)
    #print(movieList)
    writeDate(item)



  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值