记一次pycharm 使用 aiohttp 报错的解决过程

先上一下报错的截图。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4CqmYhKC-1583374273846)(/Users/li/Library/Application Support/typora-user-images/image-20200305100228759.png)]

这个问题 同样的代码在 jupyter 中就没有出现,报错代码如下:

# -*- coding:utf8 -*-
import aiohttp
import asyncio
### 这是一份报错的代码


headers = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) '
                  'Chrome/80.0.3987.122 Safari/537.36',
}


async def test_get_web():
    async with aiohttp.ClientSession() as session:
        async with session.get(url='https://www.baidu.com', headers=headers) as web:
            print(await web.text())


loop = asyncio.get_event_loop()
loop.run_until_complete(test_get_web())

那么造成这个问题的原因是什么那?

​ 通过报错我们可以看出是ssl 协议校验秘钥时不通过,这个和pycharm 中的设置有关系,具体的秘钥怎么配置我也不知道,但是我们重点是解决这个问题。知道原因之后就好办了,既然校验不通过那么咱们就不进行校验就可以了。

## 需要改动的部分
async def test_get_web():
    connect_type = aiohttp.TCPConnector(ssl=False) # 声明 aiohttp 的链接类型为 tcp链接,并且禁用ssl  这个里面的参数如果和我一样是 3.8 的话,官方建议用。低版本的可以用:verify_ssl=False
    async with aiohttp.ClientSession(connector=connect_type) as session:
        async with session.get(url='https://www.baidu.com', headers=headers) as web:
            print(await web.text())

接下来就可以痛快的使用 pycharm + aiohttp 编写爬虫了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值