Python:10054错误

python socket.error: [Errno 10054] 远程主机强迫关闭了一个现有的连接。

问题解决方案:

前几天使用python读取网页。因为对一个网站大量的使用urlopen操作,所以会被那个网站认定为攻击行为。有时就不再允许下载。导致urlopen()后,request.read()一直卡死在那里。最后会抛出errno 10054.

这个错误是connection reset by peer.也就是传说的远端主机重置了此连接。原因可能是socket超时时间过长;也可能是request = urllib.request.urlopen(url)之后,没有进行request.close()操作;也可能是没有sleep几秒,导致网站认定这种行为是攻击。

具体解决方案如下面的代码:

view plaincopy to clipboardprint?
import socket
import time
timeout = 20
socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置
sleep_download_time = 10
time.sleep(sleep_download_time) #这里时间自己设定
request = urllib.request.urlopen(url)#这里是要读取内容的url
content = request.read()#读取,一般会在这里报异常
request.close()#记得要关闭
import socket
import time
timeout = 20
socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置
sleep_download_time = 10
time.sleep(sleep_download_time) #这里时间自己设定
request = urllib.request.urlopen(url)#这里是要读取内容的url
content = request.read()#读取,一般会在这里报异常
request.close()#记得要关闭

因为urlopen之后的read()操作其实是调用了socket层的某些函数。所以设置socket缺省超时时间,就可以让网络自己断掉。不必在read()处一直等待。

当然你也可以再外层再写几个try,except,例如:

view plaincopy to clipboardprint?
try:
time.sleep(self.sleep_download_time)
request = urllib.request.urlopen(url)
content = request.read()
request.close()

except UnicodeDecodeError as e:

print('-----UnicodeDecodeErrorurl:',url)

except urllib.error.URLError as e:
print("-----urlErrorurl:",url)

except socket.timeout as e:
print("-----socket timout:",url)
try:
time.sleep(self.sleep_download_time)
request = urllib.request.urlopen(url)
content = request.read()
request.close()

except UnicodeDecodeError as e:

print('-----UnicodeDecodeErrorurl:',url)

except urllib.error.URLError as e:
print("-----urlErrorurl:",url)

except socket.timeout as e:
print("-----socket timout:",url)

一般来说就莫有问题了。我测试了几千个网页的下载,然后才说出此话。不过如果是下载成千上万的,我做了下测试,ms还是会跳出这个异常。可能是time.sleep()的时间太短,也可能是网络突然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数据,总会有失败的情况出现。

简单的处理方法是:首先参照的我的文章:python检查点简单实现 。先做一个检查点。然后将以上会跑出异常的那段代码while True一下。参见下面的伪代码:

view plaincopy to clipboardprint?
def Download_auto(downloadlist,fun,sleep_time=15):
while True:
try: # 外包一层try
value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。
# 只有正常执行方能退出。
if value == Util.SUCCESS:
break
except : # 如果发生了10054或者IOError或者XXXError
sleep_time += 5 #多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。
print('enlarge sleep time:',sleep_time)
def Download_auto(downloadlist,fun,sleep_time=15):
while True:
try: # 外包一层try
value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。
# 只有正常执行方能退出。
if value == Util.SUCCESS:
break
except : # 如果发生了10054或者IOError或者XXXError
sleep_time += 5 #多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。
print('enlarge sleep time:',sleep_time)

不过对于找不到相应的网页,又要做另外的一番处理:

view plaincopy to clipboardprint?
# 打印下载信息
def reporthook(blocks_read, block_size, total_size):
if not blocks_read:
print ('Connection opened')
if total_size < 0:
print ('Read %d blocks' % blocks_read)
else:
# 如果找不到,页面不存在,可能totalsize就是0,不能计算百分比
print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))


def Download(path,url):
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'
#filename = url.rsplit("/")[-1]
try:
# python自带的下载函数
urllib.request.urlretrieve(url, path, reporthook)
except IOError as e: # 如果找不到,好像会引发IOError。
print("download ",url,"\nerror:",e)
print("Done:%s\nCopy to:%s" %(url,path))
# 打印下载信息
def reporthook(blocks_read, block_size, total_size):
if not blocks_read:
print ('Connection opened')
if total_size < 0:
print ('Read %d blocks' % blocks_read)
else:
# 如果找不到,页面不存在,可能totalsize就是0,不能计算百分比
print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))

def Download(path,url):
#url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'
#filename = url.rsplit("/")[-1]
try:
# python自带的下载函数
urllib.request.urlretrieve(url, path, reporthook)
except IOError as e: # 如果找不到,好像会引发IOError。
print("download ",url,"\nerror:",e)
print("Done:%s\nCopy to:%s" %(url,path))

如果大家还是遇到了问题...请再评论里注上其他解决方案。


python 爬虫 url error : HTTP 403 Forbidden


Python爬取QQ空间内容的时候, 一开始的程序,不知道怎么回事,线程应该也不是问题,频繁出现 Http  403 Forbidden ,在提交请求

get 或者post 的时候,也都加了headers ,不过还是大量抛出403 异常;

后来发现用火狐的firebug 查看访问的url时候,发现就算是浏览器直接访问,抓包工具上也是显示403错误,然后于是用谷歌浏览器自带的抓包工具结果正常访问 返回200 , 就觉得可能是headers的问题,

一开始设置的headers的火狐的:

[python]   view plain  copy  print ?
  1. headers={  
  2.         'User-Agent'  :'MMozilla/5.0 (Windows NT 6.1; WOW64; rv:31.0) Gecko/20100101 Firefox/31.0'  
  3.         }  
然后用谷歌的headers:

[python]   view plain  copy  print ?
  1. headers={  
  2.         'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'  
  3.         }  
都改了之后,在运行发现403消失了!

虽然太清楚原因,但是也算是一种解决方法吧。

对用Python 做爬虫时候HTTP 403 错误,总结一下吧:

1, 首先是伪装成浏览器访问 加入headers。 headers里面最主要的内容就是User-Agent, 这个可以通过浏览器的抓包工具获取

2, 如果仍然403 Forbidden, 那就在尝试在headers内容里面加入   Host项:如下:

[python]   view plain  copy  print ?
  1. headers={  
  2.             'Host':'ptlogin2.qq.com',  
  3.             'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'  
  4.         }  
3,问题仍然不行的话, 换一个headers,其他的headers都可以通过不同浏览器的开发者工具得到
最好的方法就是把常用的各种headers写到一个表里面就行,一个不行换另一个,或者随机使用一个也可以。

另外附上一些uses_agents:

[python]   view plain  copy  print ?
  1. user_agents = [  
  2.                    'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',  
  3.                    'Opera/9.25 (Windows NT 5.1; U; en)',  
  4.                    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',  
  5.                    'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',  
  6.                    'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',  
  7.                    'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',  
  8.                    "Mozilla/5.0 (X11; Linux i686) AppleWebKit/535.7 (KHTML, like Gecko) Ubuntu/11.04 Chromium/16.0.912.77 Chrome/16.0.912.77 Safari/535.7",  
  9.                    "Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0 ",  
  10.   
  11.                    ]   

python 远程主机强迫关闭了一个现有的连接 socket 超时设置 errno 10054



前几天使用python读取网页。因为对一个网站大量的使用urlopen操作,所以会被那个网站认定为攻击行为。有时就不再允许下载。导致urlopen()后,request.read()一直卡死在那里。最后会抛出errno 10054.

这个错误是connection reset by peer.也就是传说的远端主机重置了此连接。原因可能是socket超时时间过长;也可能是request = urllib.request.urlopen(url)之后,没有进行request.close()操作;也可能是没有sleep几秒,导致网站认定这种行为是攻击。

具体解决方案如下面的代码:

  1. import socket  
  2. import time  
  3. timeout = 20    
  4. socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置  
  5. sleep_download_time = 10  
  6. time.sleep(sleep_download_time) #这里时间自己设定  
  7. request = urllib.request.urlopen(url)#这里是要读取内容的url  
  8. content = request.read()#读取,一般会在这里报异常  
  9. request.close()#记得要关闭  

因为urlopen之后的read()操作其实是调用了socket层的某些函数。所以设置socket缺省超时时间,就可以让网络自己断掉。不必在read()处一直等待。

当然你也可以再外层再写几个try,except,例如:

  1. try:  
  2.     time.sleep(self.sleep_download_time)  
  3.     request = urllib.request.urlopen(url)  
  4.     content = request.read()  
  5.     request.close()  
  6.       
  7. except UnicodeDecodeError as e:  
  8.          
  9.     print('-----UnicodeDecodeError url:',url)  
  10.       
  11. except urllib.error.URLError as e:  
  12.     print("-----urlError url:",url)  
  13.   
  14. except socket.timeout as e:  
  15.     print("-----socket timout:",url)  

一般来说就莫有问题了。我测试了几千个网页的下载,然后才说出此话。不过如果是下载成千上万的,我做了下测试,ms还是会跳出这个异常。可能是time.sleep()的时间太短,也可能是网络突然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数据,总会有失败的情况出现。

简单的处理方法是:首先参照的我的文章:python检查点简单实现。先做一个检查点。然后将以上会跑出异常的那段代码while True一下。参见下面的伪代码:

  1. def Download_auto(downloadlist,fun,sleep_time=15):  
  2.     while True:          
  3.         try: # 外包一层try   
  4.             value = fun(downloadlist,sleep_time) # 这里的fun是你的下载函数,我当函数指针传进来。  
  5.            # 只有正常执行方能退出。  
  6.             if value == Util.SUCCESS:  
  7.                 break  
  8.         except : # 如果发生了10054或者IOError或者XXXError  
  9.             sleep_time += 5 #多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。  
  10.             print('enlarge sleep time:',sleep_time)  

 

不过对于找不到相应的网页,又要做另外的一番处理:

  1. # 打印下载信息  
  2. def reporthook(blocks_read, block_size, total_size):  
  3.     if not blocks_read:  
  4.         print ('Connection opened')  
  5.     if total_size < 0:  
  6.         print ('Read %d blocks' % blocks_read)  
  7.     else:  
  8.         # 如果找不到,页面不存在,可能totalsize就是0,不能计算百分比  
  9.         print('downloading:%d MB, totalsize:%d MB' % (blocks_read*block_size/1048576.0,total_size/1048576.0))  
  10.         
  11.   
  12. def Download(path,url):  
  13. #url = 'http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar'  
  14.     #filename = url.rsplit("/")[-1]  
  15.     try:  
  16.     # python自带的下载函数  
  17.         urllib.request.urlretrieve(url, path, reporthook)  
  18.     except IOError as e: # 如果找不到,好像会引发IOError。  
  19.         print("download ",url,"/nerror:",e)  
  20.     print("Done:%s/nCopy to:%s" %(url,path)) 

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值