贴吧小爬虫案例

代码如下:

#!/usr/bin/env python

# -*-coding:utf-8 -*-
  import urllib
  import urllib2
  def loadPage(url,filename):
      """
         作用:根据url发送请求,获取服务器响应文件
         url:需要爬取的url地址
        filename:处理文件名
        """
       print "正在下载" + filename
       headers={"User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
       request=urllib2.Request(url,headers=headers)
       return urllib2.urlopen(request).read()
  def writePage(html,filename):
    """
    作用:将html内容写入本地
    html:服务器相应文件内容
    """
      print "正在保存" + filename
      with open(filename,"w") as f:
      f.write(html)
      print "-"*30
  def tiebaSpider(url,beginPage,endPage):
    """
     作用:贴吧爬虫调度器,负责组合处理每个页面的url
     url:贴吧url的前部分
    beginPage:起始页
    endPage:结束页
    """
      for page in range(beginPage,endPage+1)
          pn=(page-1)*50
          filename="第"+str(page)+"页.html"
          fullurl=url+"&pn="+str(pn)
         #print fullurl
          html=loadPage(fullurl,filename)
          #print html
          writePage(html,filename)
          print "谢谢使用"
  if __name__=="__main__":
     kw=raw_input("请输入需要爬取的贴吧名:")
     beginPage=int(raw_input("请输入起始页:"))
     endPage=int(raw_input("请输入结束页:"))
  
     url="http://tieba.baidu.com/f?"
     key=urllib.urlencode({"kw":kw})
     fullurl=url+key
     tiebaSpider(fullurl,beginPage,endPage)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值