python爬取网页汉字_程序小技巧:Python3借助requests类库3行代码爬取网页数据!快来...

爬取网页数据是python很长干的一件事情,不过做起来基本上都是很冗长的一段代码,看起来复杂,不宜理解。今天给大家分享一个小诀窍,利用python3中的requests类库进行爬取网页数据。

78a574a3d455b95833f2fb3894129a3a.png

我们先看一哈用这个requests类库做的效果

bbb7a8336c2ae79eb0d4fa1f71d99967.png

本节分享技术知识点:

  1. python导入三方类库的学习
  2. requests类库的简单使用
  3. 爬取网页数据

一、爬取网页数据实现代码

# -*- coding:UTF-8 -*-

import requests

if __name__ == '__main__':

target = 'http://gitbook.cn/'

req = requests.get(url=target)

print(req.text)

这就是实现爬取网页数据的全部代码,简单易操作。python的魅力,就是用最少的代码做最多的事。

二、创建一个python类,把上面的代码复制进去

1、如创建一个叫 pachong的类,如下图(文件取名,随意)

e1d5b6a2731d56df0e18f7fabb4375a8.png
f672b454af99cbfe822ddd5513670509.png

创建好以后,把上面第一步的代码复制进去,这时候会报红。要解决这个报红的问题则需要导入第三方类库。

01231467a15632c20e7983e6cfcbb515.png

三、导入第三方类库

1、其实导入三方类库也很简单,有下面两种方式。(此次讲解以mac为列)

3.1.1、输入requests时按alt+回车键(Mac电脑)

8cbeb3c91e5da551e9a896934045eab8.png

3.1.2、或者点击这个红色灯泡,然后install导入第三方类库

51f5fb7bf33f34ec8b0462f4405f74a1.png

如上面两种方式,我们便可以轻松的导入类库了。

四、运行代码

1、导入成功后,点击requests不在报红,则开始点击运行代码

3517b528f6745b7d2924bcc51019ca5f.png

运行完后,就可以爬取到网页数据了,如下图所示。

c63fb08ee1a245cc1059f3783a9b8d13.png

到这里我们就轻松的实现了网页数据的爬取,我们后面要做的就是使用正则表达式,从上图的数据中,过滤出自己需要的数据。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的Python爬虫爬取网页数据并解析数据的教程: 1. 确定目标网站和要爬取的信息 首先,需要确定要爬取的网站和要提取的信息。可以使用Pythonrequests库向网站发送HTTP请求获取HTML源代码,并使用BeautifulSoup库解析HTML文档获取目标数据。 例如,我们要爬取CSDN博客的文章标题和链接,可以先打开CSDN博客主页,右键查看网页代码,找到文章标题和链接所在的HTML标签。 2. 发送HTTP请求获取HTML源代码 接下来,使用Pythonrequests库向网站发送HTTP请求,获取HTML源代码。 ``` import requests url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text ``` 3. 解析HTML文档获取目标数据 使用BeautifulSoup库解析HTML文档,获取目标数据。 ``` from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 上述代码中,通过`find_all`方法找到所有class属性为"title"的div标签,然后在每个div标签中找到第一个a标签,获取链接和标题文本。 4. 完整代码 ``` import requests from bs4 import BeautifulSoup url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 以上就是一个简单的Python爬虫爬取网页数据并解析数据的教程。需要注意的是,在爬取网站数据时要遵守网站的爬虫协议,避免被网站封禁IP。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值