爬虫python下载-python 下载 爬虫

这篇博客介绍了如何使用Python编写爬虫,特别是针对需要登录后才能访问的页面进行内容爬取或文件下载。通过模拟登录过程,利用urllib2库处理cookie,实现了对asp300.com网站源码的下载。文中还提到了实际应用中可能需要考虑的多线程、断点续传和分片下载等高级技巧,并建议读者通过firebug或httpfox等工具来理解网站的登录认证过程。
摘要由CSDN通过智能技术生成

python 下载 爬虫

用python 写爬虫,一般基于两种形式:

1. 为了爬取 页面内容。2. 下载文件,有很多下载站,提供下载链接。

这两种爬虫,都有可能遇到需要登录后才能下载。所以涉及到用python 登陆网站后,再去别的页面爬取内容或下载文件。

基础知识,可以参考:

http://www.yihaomen.com/article/python/210.htm

这是爬CSDN 内容的一个小爬虫,这是爬内容的。本文主要讲爬下载的。

比如我想爬 asp300.com 的源码. 首先可以注册一个账号,比如 账号:yihaomen,密码:abcedfg.

然后准备python 代码:#coding:gb2312

import urllib2,cookielib,urllib

cookie=cookielib.CookieJar()

opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

urllib2.install_opener(opener)

#进行认证

postdata = urllib.urlencode( {'username' : 'yihaomen', 'password' : 'abcdefg','loginsubmit':' 登 录 ' })

login_response= urllib2.urlopen('http://www.asp300.com/2012user/login.jsp' ,postdata)

aa=login_response.read()

aa.clo

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值