我的简单网络爬虫

断断续续地学习了一段时间的Python,把我的网络爬虫程序写在下面,供自己查阅复习吧!

  

# -*- coding: cp936 -*-
import urllib
page = 1
head = 'http://blog.sina.com.cn/s/articlelist_1191258123_0_'
end = '.html'
i = 0
while page <= 7:
    url = head + str(page) + end
    print url   
    con0 = urllib.urlopen(url).read()
    con = con0
    while con.find(r'<a title=') != -1:
        a0 = con.find(r'<a title=')
        if con.find(r'href=',a0) != -1:
            a1 = con.find(r'href=',a0)
            if con.find(r'html">',a1) != -1:
                b1 = con.find(r'html">',a1)
                url1 = con[a1+6 : b1+4] 
                i = i + 1
                print i ,':', url1
                content = urllib.urlopen(url1).read()
                if url1.find('blog_') != -1:
                    c1 = url1.find('blog_')
                    open(url1[c1 :],'w').write(content)
                con = con[b1+4:] 
    page = page + 1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值