我们在进行一些爬虫小项目的时候,如果遇到对一些网站进行request请求时,会遇到SSLError错误,具体来说如下报错信息
requests.exceptions.SSLError: HTTPSConnectionPool(host='ssr1.scrape.center', port=443): Max retries exceeded with url: / (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERT
那么我们有三种解决方法
方法一:
response = requests.get('你要进行爬取的网站',verify=False)
可以使用verify参数控制是否验证证书,如果将此参数设置为False,那么就不会出现上述问题,当然同时会出现另外一个问题就是警告我们要给它指定证书,这个时候可以
from requests.packages import urllib3
urllib3.disable_warnings()
也可以通过捕获到日志的方式忽略警告
import logging
logging.captureWarnings()
方法二:
可以指定一个本地证书用作客户端证书