python编写爬虫遇到的问题_python编写爬虫时,某位同学所遇到的问题,以及排查办法...

某位同学在让我帮他调试一段代码

同学自己写的代码如下#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2020/3/5 20:20

# @Author : 小和尚不吃素

# @Site :

# @File : zhihu.py

# @Software: PyCharm

import requests

from urllib.parse import urlencode

import json

from requests.exceptions import RequestException

def get_one_page():

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36',

'Cookie':'Cookie值'

}

data = {

'session_token': 'bb725fb534057438d33b97f8be29f6d4',

'desktop': 'true',

'page_number':1,

'limit': '6',

'action': 'down',

# 'after_id': 17,

'ad_interval': '-1'

}

url = str_url+urlencode(data)

print(url)

try:

response = requests.get(url, headers=headers)

print(response.status_code)

if response.status_code == 200:

return response.json()

return None

except RequestException:

print('请求索引页出错')

return None

def parse_page_index(html):

# print(html)

data = html['data']

# print(data)

for i in data:

str_1 = i['target']

print(str_1)

# str_2 = str_1['id']

# print(str_2)

# if

str_3 = str_1['author']

print(str_3)

# str_1['']

# str_4 = str_3['id']

str_5 = str_3['question']

print(str_5)

# for z in i:

# print(z)

print('\n')

# data = json.loads(html)

# print(data)

# if data and 'data' in data:

# for item in data.get('data'):

# print(item)

# yield item['id']

if __name__ == '__main__':

html = get_one_page()

parse_page_index(html)

复制代码

运行完成之后,报错如下:

看到这里,我们都知道报错的原因是第55行:str_5 = str_3['question']出现错误

我们下来就开始分析str_3,发现里面没有question这个key,那刀哥就分析data这个list的数据,发现在第46行代码:

str_1 = i['target']

print(str_1)

找到了question。

那么我就把第55行代码:str_5 = str_3['question']修改为:str_5 = str_1['question']

再次运行,发现循环到莫一行数据还是会提示这个错误,后来查找,有的字典中有question这个key有的没有

那么刀哥就加了一个判断过滤了没有question这个key的情况,加的代码如下:

if('question' in str_1):

str_5 = str_1['question']

print(str_5)

再次运行,发现程序再也不报错了。

这次调试给我们有这几个方面的思考:

1,写代码的时候一定要细心;

2,要随时输出数据,关注数据的变化;

3,在使用无论是python还是java(map类型),在需要通过key值获取value的时候,最好先进行判断key值是否存在;

最终修改之后,能够正常运行的代码如下:#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2020/3/5 20:20

# @Author : 小和尚不吃素

# @Site :

# @File : zhihu.py

# @Software: PyCharm

import requests

from urllib.parse import urlencode

import json

from requests.exceptions import RequestException

def get_one_page():

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36',

'Cookie':'Cookie值'

}

data = {

'session_token': 'bb725fb534057438d33b97f8be29f6d4',

'desktop': 'true',

'page_number':1,

'limit': '6',

'action': 'down',

# 'after_id': 17,

'ad_interval': '-1'

}

url = str_url+urlencode(data)

print(url)

try:

response = requests.get(url, headers=headers)

print(response.status_code)

if response.status_code == 200:

return response.json()

return None

except RequestException:

print('请求索引页出错')

return None

def parse_page_index(html):

# print(html)

data = html['data']

# print(data)

for i in data:

str_1 = i['target']

print(str_1)

# str_2 = str_1['id']

# print(str_2)

# if

str_3 = str_1['author']

print(str_3)

# str_1['']

# str_4 = str_3['id']

if ('question' in str_1):

str_5 = str_1['question']

print(str_5)

# for z in i:

# print(z)

print('\n')

# data = json.loads(html)

# print(data)

# if data and 'data' in data:

# for item in data.get('data'):

# print(item)

# yield item['id']

if __name__ == '__main__':

html = get_one_page()

parse_page_index(html)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值