爬虫小练习

这篇博客介绍了使用Python进行爬虫的思路,从观察接口到编写代码、解析HTML内容,再到实操中遇到的问题及解决。重点提到了Beautiful Soup库在抓取和解析网页数据中的作用。
摘要由CSDN通过智能技术生成

编写思路:

  • 观察梳理接口请求,发现自己需要的内容与请求之间的关系
  • 编写代码请求接口
  • 解析请求结果拿到预期内容
  • 将读取内容写到文件中

实操

"""
编写思路:
1、定义第一章第一页的路径为初始路径
2、循环判断当接口获取的路径是否是最后一章最后一页的路径,与最后一页路径一致时停止循环
3、将循环获取到的文案进行累计
4、将累计结果写入文档
"""
import requests
from bs4 import BeautifulSoup

base_url = "http://www.51txt.cc"
get_url = "/book/252/252955/95277983.html"
fin_acticle = ''

while get_url != <
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值