使用scrapy框架爬取51job全国数据分析职位信息并做简单分析

使用scrapy框架爬取51job全国数据分析职位信息并做简单分析

工具:scrapy,MongoDB,Excel,tableau

1.分析网页链接,里面包含有【keyword=数据分析师&keywordtype=2&curr_page=1】这些关键信息,可以看出换页操作只需要更改curr_page的值。
2.查看网页源代码,发现职位信息都藏在源代码里,这样直接从源代码里提取职位信息就好了
3.先编写items,这里提取职位名称,薪资,公司名称,公司类型,公司规模,公司标签,所在城市,学历要求,工作经验,福利,招聘要求标签

class Job61Item(scrapy.Item):
    jobname=scrapy.Field()
    salary=scrapy.Field()
    company=scrapy.Field()
    companytype=scrapy.Field()
    companyscale=scrapy.Field()
    companytag=scrapy.Field()
    city=scrapy.Field()
    record=scrapy.Field()
    workyear=scrapy.Field()
    welfare=scrapy.Field()
    requirements=scrapy.Field()
    pass

4.再编写pipelines,把获取到的数据保存到MongoDB

import pymongo

class MongoPipeline(object):

    collection_name = 'scrapy_items'

    def __init__(self, mongo_uri, mongo_db):
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db

    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'),
            mongo_db=crawler.settings.get('MONGO_DATABASE')
        )

    def open_spider(self, spider):
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]

    def close_spider(self, spider):
        self.client.close()

    def process_item(self, item, spider):
        self.db
好的,以下是爬取2022年全国天气数据的Scrapy示例代码: ```python import scrapy class WeatherSpider(scrapy.Spider): name = 'weather' def start_requests(self): urls = ['http://www.tianqihoubao.com/lishi/'] for url in urls: yield scrapy.Request(url=url, callback=self.parse_province) def parse_province(self, response): provinces = response.xpath('//div[@class="citychk"]/dl/dd/a') for province in provinces: province_name = province.xpath('./text()').get() province_url = province.xpath('./@href').get() yield scrapy.Request(url=response.urljoin(province_url), callback=self.parse_city, meta={'province': province_name}) def parse_city(self, response): province_name = response.meta['province'] cities = response.xpath('//div[@class="citychk"]/dl/dd/a') for city in cities: city_name = city.xpath('./text()').get() city_url = city.xpath('./@href').get() yield scrapy.Request(url=response.urljoin(city_url), callback=self.parse_weather, meta={'province': province_name, 'city': city_name}) def parse_weather(self, response): province_name = response.meta['province'] city_name = response.meta['city'] rows = response.xpath('//table[@class="b"]/tr[position()>1]') for row in rows: date = row.xpath('./td[1]/a/text()').get() weather = row.xpath('./td[2]/text()').get() temperature = row.xpath('./td[3]/text()').get() wind = row.xpath('./td[4]/text()').get() yield { 'province': province_name, 'city': city_name, 'date': date, 'weather': weather, 'temperature': temperature, 'wind': wind } ``` 这个爬虫会从http://www.tianqihoubao.com/lishi/开始,依次爬取所有省份,再依次爬取所有城市,最后爬取每个城市的天气数据。爬取的结果会被保存在字典中,并通过yield返回。你可以在爬虫中加入自己的存储逻辑,将数据存入数据库或文件。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值