库
pip install requests
pip install bs4
基础代码
import requests
result = requests.get('https://www.zongheng.com/detail/1211374?tabsName=catalogue')
连续问题1
分析result返回的结果,获取所有的小说章节名称与章节的连接地址。
返回代码
import requests
from bs4 import BeautifulSoup
# 发送请求获取网页内容
result = requests.get('https://www.zongheng.com/detail/1211374?tabsName=catalogue')
result.raise_for_status() # 检查请求是否成功
print(f"状态码: {result.status_code}")
# 使用BeautifulSoup解析HTML内容
soup = BeautifulSoup(result.text, 'html.parser')
# 假设章节名称和连接地址包含在class为'chapter-name'和'chapter-link'的<a>标签中
# 注意:这里的class名称是假设的,你需要根据实际的HTML结构来确定正确的class或id
chapter_names = []
chapter_links = []
# 查找所有可能的章节链接
for link in soup.find_all('a', class_='chapter-list--item'): # 替换为实际的class或id
chapter_links.append(link.get('href')) # 获取链接地址
chapter_names.append(link.text.strip()) # 获取链接文本(章节名称),并去除前后空格
# 打印结果
for name, link in zip(chapter_names, chapter_links):
print(f"章节名称: {name}")
print(f"章节链接: {link}")
print()
正常访问
读取失败,这里无非是无法分析返回的结构,但是代码给出了大部分的提示,根据提示稍微改一下是OK的。