万能小说爬虫公式

本文介绍了一个利用Python的Selenium库爬取小说的通用方法。首先导入必要的库,然后设置Chrome驱动,创建无头浏览器。通过定义`chapter_downloader`函数下载章节,获取章节标题和正文,并保存到文件。再定义`novel_downloader`函数,从小说首页获取所有章节链接,逐个下载。最后,提供一个示例调用`novel_downloader`,将小说网址替换为自己目标小说的链接。
摘要由CSDN通过智能技术生成

#万能小说爬虫公式

 

#以下几行为导包

from time import sleep

from selenium import webdriver

from selenium.webdriver.chrome.options import Options

from selenium.webdriver.chrome.service import Service

from selenium.webdriver.common.by import By

#下面的是谷歌浏览器的驱动,把这个文件放到代码相同文件夹下

service = Service('chromedriver.exe')

#设置无头浏览器,隐藏爬取过程

# options = Options()

# options.add_argument('--headless')

# driver = webdriver.Chrome(service=service,options=options)

 

#不隐藏爬取过程

driver = webdriver.Chrome(service=service)

 

def chapter_downloder(url):

    """

    下载指定的章节

    :param url:章节地址

    :return:

    """

    sleep(1)

    driver.get(url)

    #获取章节标题

    title = driver.find_element(By.TAG_NAME,'h1').text

   

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值