scrapy爬虫日志_2:[爬取智联招聘]

在使用Scrapy爬取智联招聘网站时遇到Item报错,通过在Item中添加_id字段解决了问题。最终成功将数据存入数据库,但发现爬取的工资数据偏低。同时推荐了网易云课程进行爬虫学习。
摘要由CSDN通过智能技术生成

问题

1,item 报错 如下图
在这里插入图片描述
具体原因不去追究【实在没工夫,这框架先用着,,,,】,解决方案:在item中追加_id
在这里插入图片描述

代码

这个是spider板块即主体部分:***主要思路是先转为json文件,然后对json文件进行解析得到链接,再对链接进行分析爬取
Chrome打开网页->检查->network->XHR->复制Request-url  在postman(一个软件)打开即可分析json***

import scrapy
import json
from ..items import JobsItem

class NewZhilianSpider(scrapy.Spider):
    name = 'new_zhilian'
    allowed_domains = ['zhaopin.com']
    url = ['https://fe-api.zhaopin.com/c/i/sou?start={}&pageSize=90&cityId=538&salary=0,0&workExperience=-1&education=-1&companyType=-1&employmentType=-1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值