爬虫学习心得

在python环境中对小说进行爬取,一般需要安装爬虫所需的第三方库,目前我所使用的为BS4和Requests。
BS4库安装
Beautiful Soup 简称 BS4(其中 4 表示版本号)是一个 Python 第三方库,它可以从 HTML 或 XML 文档中快速地提取指定的数据。Beautiful Soup 语法简单,使用方便,并且容易理解,因此可以快速地学习并掌握它。
安装命令为:

pip install beautifulsoup4==4.11.1 -i https://pypi.tuna.tsinghua.edu.cn/simple

由于 BS4 解析页面时需要依赖文档解析器,所以还需要安装 lxml 作为解析库:

pip install lxml

首先进行一个简单的,编码操作

from bs4 import BeautifulSoup

soup = BeautifulSoup("<html>data</html>", 'lxml')
print(soup)

试验BS4与lxml能否正常运行,data表示要解析的内容,而lxml则是解析文档内容所使用的解析器。
最后得到的结果是
在这里插入图片描述
随后安装Requests库
Requests是一个优雅而简单的Python HTTP库,是为人类构建的。
Requests可以完成,Keep-Alive,带Cookie的持久化session,SSL认证,文件上传下载等诸多功能.
安装

pip install requests==2.27.1

检查Requests库能否正常使用,以疫情数据为例,爬取代码为:

import requests

response = requests.get('http://ncov.dxy.cn/ncovh5/view/pneumonia')
print(response.content.decode())

得到结果在这里插入图片描述
由于爬取的数据过多,这里不做赘述,由此requests库正常运行。
在爬取过程中首先进行UA伪装,将爬取引擎伪装成一个浏览器。
接下来是爬取小说的章节和内容具体实操
1.F12键打开需要爬取页面的控制台。
在这里插入图片描述
点击“网络”,如果左上角是红圈,刷新页面。
2.向下查找,最下面的user-agent值则是我们所需的。
在这里插入图片描述
3.利用request的get方法对首页页面进行爬取,在首页中解析出章节的标题和详情页的url。
4.实例化BeautifulSoup对象,用解析器进行解析。
5.章节标题和详情页的url通控制台的元素进行查找。
在这里插入图片描述
6.检查不同章节href标签的相似之处,通过循环遍历的方式,来自定义想要爬取的章节数量。
最后,具体代码如下:

import requests
from bs4 import BeautifulSoup
#需求:爬取红楼梦的所有章节和内容
if __name__ == '__main__':
    #UA伪装:将对应的User-Agent封装到一个字典中
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36 Edg/106.0.1370.52'}
    #对首页的页面进行爬取
    url = 'https://www.shicimingju.com/book/hongloumeng.html'
#     page_text = requests.get(url=url,headers=headers).text
    page_text = requests.get(url=url,headers=headers).content
    #在首页中解析出章节的标题和详情页的url
    #1、实例化BeautifulSoup对象,需要将页面源码数据加载到该对象中
    soup = BeautifulSoup(page_text,'html.parser')
    #解析章节标题和详情页的url
    li_list = soup.select('.book-mulu > ul > li')
    #将爬取的章节内容保存在sang。txt文档中
    fp = open('./sang.txt','w',encoding='utf-8')
    num = 0
    #查找需要的章节数量
    for li in li_list:
        num += 1
        if num >10:
            break
        title = li.a.string
        #详情页面的url
        detail_url = 'http://www.shicimingju.com'+li.a['href']
        #对详情页发起请求,解析出章节内容
        detail_page_text = requests.get(url=detail_url,headers=headers).content
        #解析出相关章节内容
        detail_soup = BeautifulSoup(detail_page_text,'html.parser')
        div_tag = detail_soup.find('div',class_='chapter_content')
        #解析到了章节的内容
        content = div_tag.text
        fp.write(title+':'+content+'\n')
        print(title,'successful!')

运行成功的截图
在这里插入图片描述
爬虫的学习让我对python的理解更上一层,下一目标,购物数据的爬取。

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值