python网络爬虫小案例适合初学者入门

1、首先利用PyCharm 工具在Terminal窗口中下载requests工具类,如果国内该工具下载不下来,可借用清华源代理进行下载,如下:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests

输入命令:

(vis) D:\pythonTest\test01>pip3 install requests
Collecting requests
  Downloading requests-2.28.1-py3-none-any.whl (62 kB)
     ---------------------------------------- 62.8/62.8 kB 84.2 kB/s eta 0:00:00
Collecting urllib3<1.27,>=1.21.1
  Downloading urllib3-1.26.10-py2.py3-none-any.whl (139 kB)
     ---------------------------------------- 139.2/139.2 kB 16.2 kB/s eta 0:00:00
Collecting certifi>=2017.4.17
  Downloading certifi-2022.6.15-py3-none-any.whl (160 kB)
     ---------------------------------------- 160.2/160.2 kB 22.3 kB/s eta 0:00:00
Collecting charset-normalizer<3,>=2

2、下载完成后,只需导入requests库文件,就可以使用里面的方法。

import requests
query=input("请输入需要查询的编程语言:")
url = f'https://www.sogou.com/web?query={query}'

codelange = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 "
                  "Safari/537.36"}
# 请求头,处理反爬虫
resp = requests.get(url, headers=codelange)
print(resp.text)

codelange 定义该对象主要是用来解决搜狗网络反爬虫的问题,如果不设置。则会在抓取网页时提示:此验证码用于确认这些请求是您的正常行为,而不是自动程序发出的,需要您协助验证。

以上命令在python文件中即可完成搜狗网站的抓取。

以上python代码复制到文档中,即可在控制台中显示爬虫结果!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员小蛋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值