Scrapy抓取网易job数据

该项目详细记录了如何使用Scrapy框架抓取网易job的数据,包括创建项目、定义数据模型、创建爬虫、完善爬虫逻辑、设置数据保存的管道以及启用管道并运行爬虫的过程。
摘要由CSDN通过智能技术生成

项目:爬取网易job的数据

shell 命令指示符

---- 01-创建项目

scrapy startproject wangyi

items.py

---- 02-明确目标,然后在items.py文件中建模

#	这里的目标就是初始要提取的数据
import scrapy 


class WangyiItem(scrapy.Item):
    # define the fields for you item here like:
    # 02.1 确定目标并建模
    # name = scrapy.Field()
    # 	职位名称
    name = scrapy.Field()
    #	职位的详情页面链接
    link = scrapy.Field()
    #	所属的部门
    depart = scrapy.Field()
    #	职位类别
    type = scrapy.Field()
    #	工作地点
    address = scrapy.Field()
    #	招聘人数
    num = scrapy.Field()
    #	发布时间
    data = scrapy.Field()

shell 命令指示符

---- 03-创建爬虫

# 03.1-切换到项目路径
cd wangyi
# 03.2-创建爬虫文件
scrapy genspider job 163.com

job.py

---- 04-修改完善爬虫

import scrapy
# 使用数据建模模板
from wangyi.items 
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值