利用bs4 模块BeautifulSoup方法抓取小说(非会员、非完善)

利用bs4 模块BeautifulSoup方法抓取小说(非会员、非完善)求指点
摘要由CSDN通过智能技术生成

       利用下班空闲时间看了三天视频(纯小白),写了个抓取小说网站的爬虫脚本,目前代码不完善,需去除章节里/p标签,百度了半天没找到解决方案,有大佬可以给完善一下,在此谢过!

from multiprocessing import get_context
from tkinter import W
from turtle import title
import requests
from bs4 import BeautifulSoup
import lxml
if __name__ == '__main__':
        url = 'https://b.faloo.com/1190629.html'
        headers={
        'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
        }
        page_text = requests.get(url= url,headers=headers).content
        soup = BeautifulSoup(page_text,'lxml')
        li_list = soup.select('.DivTd')
        fp = open('./siheyuan.txt','w',encoding='utf-8')
        for DivTd in li_list:
            title = DivTd
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值