python爬虫实践—纵横中文网免费小说爬取

本文介绍了如何使用Python进行网络爬虫,具体目标是从纵横中文网抓取免费小说链接。通过XPath解析HTML,结合Sublime Text进行代码编辑,并利用HTTP协议进行网络请求,实现小说数据的自动化爬取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

python爬虫实践—纵横中文网免费小说爬取(仅供记录学习)

爬取初始页面链接: http://book.zongheng.com/store/c1/c0/b0/u0/p1/v9/s1/t0/u0/i1/ALL.html
.

https://imgconvert.csdnimg.cn/aHR0cHM6Ly9hdmF0YXIuY3Nkbi5uZXQvNy83L0IvMV9yYWxmX2h4MTYzY29tLmpwZw

python代码.

// An highlighted block
import requests
from lxml import etree
import re
import os,time

def getHtml(url):
	headers = {
   'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.36 Safari/537.36'}
	html = requests.get(url,headers = headers)
	return html.text

def getBookId(url):
	bookIdList = []
	text = getHtml(url)
	html = etree.HTML(text)
	bookUrlList = html.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值