每天都进步一点

每天都实践一点,进步一点,遇到问题就网上搜索或者书里面查找。
这是今天的实践。

// a novel spider
from lxml import etree
import requests
from chardet import detect
import time

headers = {
'user-agent': 'Mozilla/5.0 '
}
url_data = {}
with open('url.txt','r',encoding='utf-8') as f:
    a = f.read()
#由于网页是静态的,我直接在源代码中把整个章节的网址copy下载存到文件里面再提取
#要不还要写提取公式
#基础还是太差了
data = etree.HTML(a)
get_urls = data.xpath('//a/@href')
for url in get_urls:
    res = requests.get(url,headers)
    html = res.content.decode(detect(res.content)['encoding'])
    soup = etree.HTML(html)
    texts = soup.xpath('//*[@id="BookText"]/text()')
    title = soup.xpath('/html/body/div[3]/h1/text()')[0]
    with open('小说名称.txt','a+',encoding='utf-8') as f:
            f.write(title +'\n')
    for text in texts:
        with open('小说名称.txt','a+',encoding='utf-8') as f:
            f.write(text.lstrip('\u3000')+'\n')
    print(f'已下载第{title}')
    time.sleep(5)

写的比较乱,这是我学python以来第一次实践,试着去写一个可以运行的小代码。在写的过程中也是知道了str.strip(),里面也是可以放参数的,参数就是你想在字符串中移除的字符。
例如:

// A code block
var foo = 'bar';
a = 'abcd'
a.strip('b')
#输出就是abd
这个是在python cookbook的电子书里面看到的。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值