用py写爬虫,去爬csdn,完美解决403 Forbidden问题

csdn上偶尔还是有那么一两篇好文章的,如果遇到这样的好文章,你想直接把它弄到自己的网站里面,或者保存到本地处理,一般来说,两种方法:


1. copy and paste,这个不用多介绍,会用电脑的人都会。
2.自己写个爬虫,根据页面地址,自动爬出想要的内容。在这里采用python写爬虫。

如果你直接采用 urllib 去抓内容,可能会出错,原因是 某些服务器上,禁止别人去爬站里的内容。所以必须模拟真实上网,才能抓取内容。下面两个代码段比较:

程序代码 程序代码

import re
import urllib
import cookielib
url = " http://blog.csdn.net/v_JULY_v/archive/2010/11/27/6039896.aspx"
sock = urllib.urlopen(url)
html = sock.read()
print html


直接报错了。得到结果 403 Forbidden 这是因为 CSDN appserver 上做了限制,如果没有做限制,肯定可以把内容爬下来。好了,既然这样,我们可以模拟正常上网一样,这样CSDN就不会限制你的。直接上代码:

程序代码 程序代码

#coding:utf-8
'''
Created on 2012-6-25
@author: lzs
''' 

import random
import socket
import urllib2
import cookielib

ERROR = {
        '0':'Can not open the url,checck you net',
        '1':'Creat download dir error',
        '2':'The image links is empty',
        '3':'Download faild',
        '4':'Build soup error,the html is empty',
        '5':'Can not save the image to your disk',
    }

class BrowserBase(object): 

    def __init__(self):
        socket.setdefaulttimeout(20)

    def speak(self,name,content):
        print '[%s]%s' %(name,content)

    def openurl(self,url):
        """
        打开网页
        """
        cookie_support= urllib2.HTTPCookieProcessor(cookielib.CookieJar())
        self.opener = urllib2.build_opener(cookie_support,urllib2.HTTPHandler)
        urllib2.install_opener(self.opener)
        user_agents = [
                    'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',
                    'Opera/9.25 (Windows NT 5.1; U; en)',
                    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',
                    'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',
                    'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',
                    'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',
                    "Mozilla/5.0 (X11; Linux i686) AppleWebKit/535.7 (KHTML, like Gecko) Ubuntu/11.04 Chromium/16.0.912.77 Chrome/16.0.912.77 Safari/535.7",
                    "Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0 ",

                    ] 
       
        agent = random.choice(user_agents)
        self.opener.addheaders = [("User-agent",agent),("Accept","*/*"),('Referer',' http://www.google.com')]
        try:
            res = self.opener.open(url)
            print res.read()
        except Exception,e:
            self.speak(str(e)+url)
            raise Exception
        else:
            return res

if __name__=='__main__':
    splider=BrowserBase()
    splider.openurl(' http://blog.csdn.net/v_JULY_v/archive/2010/11/27/6039896.aspx')    

直接得到了结果。因为这是模拟真实上网,发送了http header 的一些信息给appserver.
另外如果 是下载前或获取内容前需要登录的情况呢,参考另一篇文章:

http://www.yihaomen.com/article/python/216.htm 

转自:http://blog.csdn.net/zhaoyl03/article/details/8631897

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 当爬虫遇到 403 forbidden 错误时,可能是因为该网站禁止了爬虫的访问。解决方法可能有以下几种: 1. 在请求头中加入 User-Agent 信息,模拟浏览器访问。 2. 在请求头中加入 Cookies 信息,模拟已登录状态。 3. 在请求头中加入 Referer 信息,模拟从特定网站链接过来。 4. 增加请求间隔时间,避免对网站造成过大压力。 5. 在爬取之前获取网站的 robots.txt 文件,了解网站对爬虫的限制。 6. 如果以上方法都不能解决问题,那么就不能爬取这个网站。 ### 回答2: 爬虫是一种程序,用于在互联网上爬取数据。但是,在爬取网站数据时,有些网站可能会拒绝爬虫的行为,这就导致了403 Forbidden错误。 403 Forbidden错误通常是由于许多原因导致的,例如: 1. 服务器禁止访问:有些网站会禁止某些IP地址或特定的IP范围,这可能会导致爬虫无法访问。 2. 用户代理:爬虫的用户代理可能无法通过网站的安全检查,因此被服务器拒绝。 3. 访问频率:当爬虫频繁地访问网站时,可能会引起服务器的拒绝。 那么如何解决爬虫403 Forbidden问题呢? 1. 更改用户代理:可以使用一些浏览器插件或代码库来更改爬虫的用户代理,让其更接近浏览器的行为,从而绕过服务器的安全检查。 2. 减少访问频率:适当地延长访问间隔,也是避免爬虫被服务器拒绝的方法之一。 3. 使用代理服务器:通过使用代理服务器,可以避免服务器对特定IP地址的拒绝,从而成功爬取数据。 4. 与网站管理员联系:如果以上方法无效,可以直接联系网站管理员,请求解决问题。通过与管理员沟通,定制专门的访问规则或提供一些特定的访问凭证,可以帮助解决爬虫403 Forbidden问题。 总之,对于403 Forbidden错误,需要找出根本原因并解决之后,才能成功地爬取目标网站的数据。同时,为了遵守互联网规则和网站的合法权益,我们应该以合法的方法来获取和使用数据。 ### 回答3: 爬虫403 Forbidden是指在爬取网站时,服务器拒绝了爬虫的访问请求,让爬虫无法继续进行数据爬取工作。这种情况的出现主要由于网站的反策略,保护自身的网站安全和数据隐私。 那么,解决爬虫403 Forbidden的方法有以下几种: 1.修改User-Agent信息:在爬取数据时,可以通过修改请求头中的User-Agent信息,来模拟不同的浏览器访问,从而避免被服务器识别为爬虫。常见的User-Agent信息如Chrome、Firefox等。 2.设置延时时间:适当设置爬取数据的延时时间,让爬虫的访问请求更加自然。这样可以避免爬虫在短时间内频繁地访问服务器,被服务器识别为异常访问行为,从而产生403 Forbidden的错误提示。 3.使用代理IP:通过使用代理IP可以隐藏真实的IP地址,避免服务器识别出爬虫的访问行为。但是,使用代理IP需要注意随时更新IP地址,否则会被封杀。 4.使用Cookies:Cookies是服务器发放给客户端的识别信息,通过保存Cookies信息可以模拟用户登录状态,避免爬虫被服务器强制下线。 5.增加重试机制:当遇到403 Forbidden时,可以通过增加重试机制,多次访问并尝试不同的访问策略,来提高成功率。 总之,解决爬虫403 Forbidden的方法有很多种,但是不同的方法适用于不同的爬虫情况。使用时需要在实践中积累经验,选择最适合自己的方法。同时也要注意合理且合法地爬取数据,遵守网络道德规范,不去损害他人利益。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值