scrapy抓取猫眼电影

# -*- coding: utf-8 -*-
import scrapy
from ..items import MaoyanItem


class MaoyanSpider(scrapy.Spider):
    name = 'maoyan'
    allowed_domains = ['maoyan.com']
    start_urls = ['https://maoyan.com/board/4?offset=0']

    # reponse为start_urls中的响应对象
    def parse(self, response):
        # 基准的xpath
        dd_list = response.xpath('//dl[@class="board-wrapper"]/dd')

        # 给items.py中的类:MaoyanItem()实例化
        item = MaoyanItem()
        for dd in dd_list:
            item['name'] = dd.xpath('./a/@title').get()
            item['star'] = dd.xpath('.//p[@class="star"]/text()').get().strip()
            item['time'] = dd.xpath('.//p[@class="releasetime"]/text()').get()

            yield item

爬取第一页

总结
1.创建项目+爬虫文件
2.items.py:定义数据结构
3.spider.py:解析数据
4.pipelines.py:处理数据
5.setting.py:全局配置
6.run.py:运行爬虫
#respone的方法
1.respone.xpath(’’)
2.respone.text:字符串
3.respone.body:字节串
#选择器对象列表
1.xxx.xpath(’’).extract()
2.xxx.xpath(’’).extract_first()
3.xxx.xpath(’’).get()
#重写start_requests()方法
1.去掉start_requests变量
2.def start_requests():
#settings.py中常用变量
1.LOG_LEVEL=’’
2.LOG_FILE=’’
3.FEED_EXPORT_ENCODING=’’
#保存csv或json文件
1.scrapy crawl spider -o xxx.csv
#存数据库
class xxxPipeline(object):
def open_spider(self,spider):
pass
def process_item(self,item,spider):
#必须返回item
return item
def close_spider(self,spider):
pass

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值