python爬虫解析json

import requests
import json

def get_data(url):
    headers={
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36'
    }
    data=requests.get(url,headers=headers)
    data=json.loads(data.text)
    print(data['code'])
    job_data=data['data']['results']
    print(len(job_data))
    for each in job_data:
        #详情页面url
        print(each['positionURL'])
        #薪水
        print(each['salary'])
        #职业名称
        print(each['jobName'])
        #公司名称
        print(each['company']['name'])
        #公司规模
        print(each['company']['size']['name'])
        #公司类型
        print(each['company']['type']['name'])
        #工作地点
        print(each['city']['display'])
        #工作经验
        print(each['workingExp']['name'])
        print('..............................')


if __name__=='__main__':
    url='https://fe-api.zhaopin.com/c/i/sou?start=120&pageSize=60&cityId=北京&workExperience=-1&education=-1&companyType=-1&employmentType=-1&jobWelfareTag=-1&kw=Python工程师&kt=3&lastUrlQuery={"p":1,"pageSize":"60","jl":"北京","kw":"Python工程师","kt":"3"}'
    get_data(url)

第一次博客,有点紧张,本人小白,如有错误,欢迎指正。

  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值