先上一下报错的截图。
这个问题 同样的代码在 jupyter 中就没有出现,报错代码如下:
# -*- coding:utf8 -*-
import aiohttp
import asyncio
### 这是一份报错的代码
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/80.0.3987.122 Safari/537.36',
}
async def test_get_web():
async with aiohttp.ClientSession() as session:
async with session.get(url='https://www.baidu.com', headers=headers) as web:
print(await web.text())
loop = asyncio.get_event_loop()
loop.run_until_complete(test_get_web())
那么造成这个问题的原因是什么那?
通过报错我们可以看出是ssl 协议校验秘钥时不通过,这个和pycharm 中的设置有关系,具体的秘钥怎么配置我也不知道,但是我们重点是解决这个问题。知道原因之后就好办了,既然校验不通过那么咱们就不进行校验就可以了。
## 需要改动的部分
async def test_get_web():
connect_type = aiohttp.TCPConnector(ssl=False) # 声明 aiohttp 的链接类型为 tcp链接,并且禁用ssl 这个里面的参数如果和我一样是 3.8 的话,官方建议用。低版本的可以用:verify_ssl=False
async with aiohttp.ClientSession(connector=connect_type) as session:
async with session.get(url='https://www.baidu.com', headers=headers) as web:
print(await web.text())
接下来就可以痛快的使用 pycharm + aiohttp 编写爬虫了。