利用Scrapy爬取网易新闻

本教程详细介绍了如何利用Scrapy框架抓取网易新闻的当日新闻标题、内容和来源,并将数据保存到CSV文件中。在items.py中定义爬取字段,spider目录下编写爬虫逻辑,遇到问题可参考解决方案。同时,在pipelines.py中设定数据存储方法,并在settings.py中启用pipelines,最终数据将存储在根目录的CSV文件中。
摘要由CSDN通过智能技术生成

利用Scrapy爬取网易新闻

本次利用Scrapy爬取网易新闻当天的新闻标题,内容,来源等信息并存储到csv文件中,具体操作如下。

爬取

  1. 在items.py中提前设置好相关的爬取内容函数:
import scrapy
class NewsItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    news_thread=scrapy.Field()
    news_title=scrapy.Field()
    news_url=scrapy.Field()
    news_time=scrapy.Field()
    news_source=scrapy.Field()
    source_url=scrapy.Field()
    news_body=scrapy.Field()
    pass
  1. 在spider目录下找到所创建的爬取py文件,写入函数。若出现无法爬取的情况,可以参考前面文章,有相关解决办法。
# -*- coding: utf-8 -*-
import scrapy
from news.items import NewsItem
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider,Rule
#"https://news.163.com/20/0412/12/FA107S71000189FH.html
#"https://news.163.com/20/0412/09/FA0KR27300019K82.html
#/20/0412/\b+/.*?html#正则表达
#https://news.163.com/20/0503/15/FBNBQHAR000189FH.html
class News2019Spider(CrawlSpider):
    name = 'news2019'
    allowed_domains = ['news.163.com']
    start_urls = ['http://news.163.com/']
    rules=(
        Ru
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值