python爬取糗百段子-非异步执行

记录

最近在练习爬虫xpath内容,做个记录
以下代码xpath可能会变动,根据网址实际标签地址进行修改即可
每次爬取页码最好不要过多,以免影响网站正常运行


20201029更新,该源码非异步执行,请求多个网址,耗时为所有页面耗时总和,另一篇为高能异步执行,效果对比很明显,可对比阅读,地址:https://blog.csdn.net/MKKKKAA/article/details/109347852

源码

import requests
from lxml import etree
import time


headers = {'User-Agent': 'Mozilla/5.0'}
fp = open('./qiubai_download.txt', 'w', encoding='utf-8')

print('----单线程多任务非异步执行----')

page = input('请输入爬取页数:')
start = time.time()

url_head = 'https://www.qiushibaike.com/text/page/'
urls = []
for i in range(1, int(page)+1):
    url_each = url_head + str(i)
    urls.append(url_each)
# print(urls)

for url in urls:
    resp = requests.get(url, headers=headers).text
    tree = etree.HTML(resp)
    div_list = tree.xpath('//div[@class="col1 old-style-col1"]/div')
    for div in div_list:
        author = div.xpath('./div[@class="author clearfix"]/a[2]/h2/text()')[0]
        detail_text = div.xpath('.//div[@class="content"]/span[1]//text()')
        detail_text = ''.join(detail_text)
        fp.write(author + detail_text+'\n\n\n\n')
fp.close()
print('耗时:',time.time()-start)


感谢看到这里

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
新发地是中国北京市的蔬菜批发市场,每天都有大量的蔬菜价格行情更新。想要用Python爬取新发地的价格行情,可以通过以下几个步骤来实现。 首先,需要导入相关的Python库,包括requests和beautifulsoup库。requests库用于发送HTTP请求获取网页的内容,beautifulsoup库用于解析网页的内容。 接下来,需要分析新发地价格行情所在的网页结构。可以通过打开新发地的价格行情网页,查看网页的源代码来分析。一般来说,每个蔬菜的价格信息都会包含在一个HTML标签中,可以通过查找这个标签来筛选出所需的信息。 然后,使用Python编写代码来发送HTTP请求并获取价格行情网页的内容。可以使用requests库的get方法来发送GET请求,并使用其返回的response对象的text属性来获取网页的内容。 接着,使用beautifulsoup库来解析网页的内容。可以使用beautifulsoup库的BeautifulSoup类来初始化一个解析器对象,并使用其find_all方法来查找指定的HTML标签。通过查找所需标签,可以获取到蔬菜的名称和对应的价格信息。 最后,将获取到的价格信息进行整理和格式化,并保存到文件中或者打印出来。 需要注意的是,爬取网页的过程中需要注意遵守相关的法律法规,并尊重网站的使用规则,不要对网站进行过多的频繁请求,以免给网站带来压力。 通过以上步骤,就可以用Python爬取新发地的价格行情了。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值