使用scrapy框架爬取最好大学排名

爬取链接:https://www.shanghairanking.cn/rankings/bcur/2021
这里偷个懒,直接在之前创建好的项目文件里创建爬虫文件,创建命令“scrapy genspider daxue daxue.com”,创建了daxue.py文件
在这里插入图片描述
如果不知道如何创建项目文件的话,可以参考这篇文章Scrapy爬虫框架
爬虫文件的代码如下:

import scrapy
from baiduSpider.items import BaiduspiderItem

class DaxueSpider(scrapy.Spider):
    name = 'daxue'
    allowed_domains = ['daxue.com']
    start_urls = ['https://www.shanghairanking.cn/rankings/bcur/2021']   #爬取链接


    def parse(self, response):   #解析爬取到页面的方法
        for row in response.xpath('//*[@id="content-box"]/div[2]/table/tbody/tr'):   #循环逐行从列表中获取每个链接
            item=BaiduspiderItem()   #实例化
            item['rank']=row.xpath("td[1]/div/text()")[0].get().strip()   #排名
            item['name']=row.xpath("td[2]/div/div[2]/div[1]/div/div/a/text()")[0].get().rstrip()   #大学名称
            item['city']=row.xpath("td[3]/text()")[0].get().strip()   #所在省市
            item['type'] = row.xpath("td[4]/text()")[0].get().strip()    #类型
            item['score']=row.xpath("td[5]/text()")[0].get().strip()   #总分
            yield item

items文件的代码如下:

import scrapy
class BaiduspiderItem(scrapy.Item):
    rank = scrapy.Field()
    name = scrapy.Field()
    city = scrapy.Field()
    type = scrapy.Field()
    score = scrapy.Field()

最后输入命令运行爬虫文件:scrapy crawl daxue -o daxue.csv
最终得到的结果如下:
在这里插入图片描述

补充strip、lstrip、rstrip的用法

这三个都是为了删除字符串中不同位置的指定字符。strip()用于去除字符串的首尾字符,lstrip()用于去除开头(左边left)的字符,rstrip()用于去除尾巴(右边right)的字符

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值