简单爬取糗事百科

刚刚入门,对于爬虫还要折腾很久才行,虽然很多功能还没开始掌握,但是爬取下来就很开心,接下来还会争取进步的。把自己出现的一些错误都加上了注释,我目前还在学习当中,大家一起进步。

期间学了一个新的函数,在这里分享下:

strip()

网上是这么说的

需要注意的是,传入的是一个字符数组,编译器去除两端所有相应的字符,直到没有匹配的字符,比如:

theString = 'saaaay yes no yaaaass'
print theString.strip('say') 

运行结果: 
yes no 

这里的两端,只是指向theString整个字符串两端的字符,即saaaaay 和yaaaass,将这两个单词,前后包含“s”,"a","y"三者之一的字符按顺序一一去掉,对于中间的“yes”是无效的。

如果没有指定的话,就会替换掉前后的空格。 当rm为空时,默认删除空白符(包括'\n', '\r',  '\t',  ' ')

所以如果需要替换掉一些<br/>之类的字符串,可以选择先将其用re.sub替换成空白符,然后在用strip()删除。

import urllib2
import re


url = 'http://www.qiushibaike.com/hot/page/'


def get_url(url):
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'} #记得引号
    req=urllib2.Request(url,headers =headers)
    response = urllib2.urlopen(req)
    html = response.read().decode('utf-8')
    return html
    
    
def get_info(url):
    html = get_url(url)
    re_info = r'h2\>(.+?)\</h2\>.+?\<div class="content"\>(.+?)\</div\>.+?\<i class="number"\>(.+?)\</i'
    info_compile = re.compile(re_info,re.S)#多行使用re.S
    info = re.findall(info_compile,html)
    #return info 放进列表里面的是元组
    for story in info:
        re_text = re.compile('<br/>')
        text = re.sub(re_text,'',story[1])
        print u"发布人:%s\t 赞:%s\n%s" %(story[0],story[2],text)#\t为横向制表符
#前面加u啊啊啊啊
get_info(url)

接下来写循环的部分,其实只是在最后去掉get_info(url)再加上一点点的东西

def get_all(pages):
    for i in range(1,pages):
        url = start_url + str(i)
        get_info(url)
        
get_all(3)

接下来实现打印加上页码,回车打印每一个段子,更是只是加上一点点的东西,添加raw_input进行判断

def get_info(url,page):
    html = get_url(url)
    re_info = r'h2\>(.+?)\</h2\>.+?\<div class="content"\>(.+?)\</div\>.+?\<i class="number"\>(.+?)\</i'
    info_compile = re.compile(re_info,re.S)
    info = re.findall(info_compile,html)
    print u'正在读取,回车查看,Q退出'
    for story in info:
        input = raw_input()
        if input == 'Q':
            return
        re_text = re.compile('<br/>')
        text = re.sub(re_text,'',story[1])
        print u"第%d页\t发布人:%s\t 赞:%s\n%s" %(page,story[0],story[2],text)

如果没有更改url,会报出如下错误:

Traceback (most recent call last):

  File "<ipython-input-17-70dae055a5ee>", line 38, in <module>
    get_all(3)

  File "<ipython-input-17-70dae055a5ee>", line 34, in get_all
    url = url + str(i)

UnboundLocalError: local variable 'url' referenced before assignment

为了区分,我们将url换名为start_url,完整如下

import urllib2
import re


start_url = 'http://www.qiushibaike.com/hot/page/'


def get_url(url):
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64)'} #记得引号
    req=urllib2.Request(url,headers =headers)
    response = urllib2.urlopen(req)
    html = response.read().decode('utf-8')
    return html
    
    
def get_info(url,page):
    html = get_url(url)
    re_info = r'h2\>(.+?)\</h2\>.+?\<div class="content"\>(.+?)\</div\>.+?\<i class="number"\>(.+?)\</i'
    info_compile = re.compile(re_info,re.S)
    info = re.findall(info_compile,html)
    print u'正在读取,回车查看,Q退出'
    for story in info:
        input = raw_input()
        if input == 'Q':
            return
        re_text = re.compile('<br/>')
        text = re.sub(re_text,'',story[1])
        print u"第%d页\t发布人:%s\t 赞:%s\n%s" %(page,story[0],story[2],text)
        
def get_all(pages):
    for i in range(1,pages):
        url = start_url + str(i)
        get_info(url,i)

get_all(3)

啊啊啊啊写了下来发现循环部分出现错误,就是每一页都得输出Q才行,得在每一页循环之前加上判断,那么继续更改以下函数,return用来跳出整个代码过程

def get_info(url,page):
    html = get_url(url)
    re_info = r'h2\>(.+?)\</h2\>.+?\<div class="content"\>(.+?)\</div\>.+?\<i class="number"\>(.+?)\</i'
    info_compile = re.compile(re_info,re.S)
    info = re.findall(info_compile,html)
    for story in info:
        input = raw_input()
        if input == 'Q':
            enable = False
            return
        re_text = re.compile('<br/>')
        text = re.sub(re_text,'',story[1])
        print u"第%d页\t发布人:%s\t 赞:%s\n%s" %(page,story[0],story[2],text)
        
def get_all(pages):
    print u'正在读取,回车查看,Q退出'
    enable =True
    for i in range(1,pages):
        if enable == True:
            url = start_url + str(i)
            get_info(url,i)
        return


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值