使用scrapy抓取博客信息

使用scrapy抓取博客信息

本文使用python的爬虫工具scrapy获取博客园发布的文档的信息。

  1. 创建cnblog爬虫项目;

scrapy startproject cnblog

  1. 创建爬虫cnblog_spider;

scrapy genspider cnblog_spider cnblogs.com

(1)在settings.py中添加配置项;

BOT_NAME = 'cnblog'

SPIDER_MODULES = ['cnblog.spiders']
NEWSPIDER_MODULE = 'cnblog.spiders'

ROBOTSTXT_OBEY = False 
# 覆盖默认的请求头
DEFAULT_REQUEST_HEADERS = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'en',  
  'User-Agent': "从浏览器请求中获取"
}

# 添加管道
ITEM_PIPELINES = {
    'cnblog.pipelines.FilePipeline': 300
}

LOG_LEVEL = 'ERROR'

(2)修改pipelines.py文件

class FilePipeline(object):
    def process_item(self, item, spider):
        data = ''
        with open('cnblog.txt', 'a', encoding='utf-8') as f:
            titles = item['title']
            links = item['link']
            for i, j in zip(titles, links):
                data += i+'     '+j+'\n'

            f.write(data)                
            f.close()
        return item     

(3)修改items.py文件

import scrapy

class CnblogItem(scrapy.Item):
    title = scrapy.Field() 
    link = scrapy.Field()

(4)修改cnblog_spider.py爬虫文件

import scrapy
from cnblog.items import CnblogItem 

class CnblogSpiderSpider(scrapy.Spider):
    name = 'cnblog_spider'
    allowed_domains = ['cnblogs.com']
    url = 'https://www.cnblogs.com/sitehome/p/'
    offset = 1
    start_urls = [url + str(offset)]

    def parse(self, response):
        item = CnblogItem()
        item['title'] = response.xpath('//a[@class="post-item-title"]/text()').extract()
        item['link'] = response.xpath('//a[@class="post-item-title"]/@href').extract()
        yield item 
        print("第{0}页爬取完成".format(self.offset))
        if self.offset < 10: 
            self.offset += 1
        url2 = self.url + str(self.offset)        
        yield scrapy.Request(url=url2, callback=self.parse)
  1. 运行爬虫

python main.py

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

快乐江小鱼

知识创造财富,余额还是小数

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值