xpath不断实践

本文介绍了一位初学者通过Python进行网络爬虫的实践过程,使用requests和lxml库从文本文件中读取网址,抓取网页上的小说内容链接,并将结果保存到新的文本文件中。代码中包含HTTP请求、HTML解析和XPath选择器的运用,强调了多实践对于编程学习的重要性。
摘要由CSDN通过智能技术生成

菜鸟中的菜菜鸟,学习得多实践
把学到的,输出自己的想法到代码上练习。
多实践才能多理解啊。

// A code block
spider for novel
// An highlighted block
import re, requests
from lxml.html import fromstring,tostring
import time
url = 'https://xxx.xxx.com/'
headers = {
"user_agent":"Mozilla/5.0",
}
a = []
with open("url.txt",'r') as f:
    for line in f.readlines():
        
        a.append(f"http:{line}")
for i in a:
    res = requests.get(url=i,headers=headers,)
    html = res.content
    html = fromstring(html)
    data = html.xpath("//div[@class='read-content j_readContent']")[0]
    text_url = data.xpath('string(.)')
    with open("url_new_http.txt",'a',encoding='utf-8') as fd:
        fd.writelines(text_url)
        time.sleep(3)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值