python爬取换页_python爬虫抓取翻页内容

该代码段展示了如何使用Python的urllib2库抓取糗事百科热榜页面的内容。目前,它只能抓取指定页码的内容,但可以扩展来实现翻页功能。通过增加一个循环,遍历多个页码,可以抓取多页的数据。注意,实际爬虫可能需要处理反爬虫策略,如设置延时、使用代理等。
摘要由CSDN通过智能技术生成

qiushibaike 如何写抓取翻页的内容,这里只写好了一个抓取本页的内容

#coding=utf-8

import urllib2

import urllib

import re

page = 1

url = 'http://www.qiushibaike.com/hot/page/'+str(page)

user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'

headers = { 'User-Agent' : user_agent }

try:

request = urllib2.Request(url,headers=headers)

response = urllib2.urlopen(request)

content = response.read()

pattern = re.compile('

.*?href.*?(.*?).*?
(.*?)
.*? (.*?)',re.S)

items = re.findall(pattern,content)

for item in items:

print item[0],item[1],item[2]

except urllib2.URLError,e:

if hasattr(e,"code"):

print e.code

if hasattr(e,'reason'):

print e.reason

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值