爬取段子网里面的搞笑段子

用python把段子都爬下来,用到两个库

一个是requests库和etree
用到的段子网址为段子网址

点击网址进入页面
在这里插入图片描述
分析网页,按F12进入开发者模式,可以看到一条一条的数据都是在这个li列表里面,如果觉得很难找到爬取的内容的话也可以使用xpath-helper工具
在这里插入图片描述
代码如下:

import requests
from lxml import etree

def get_url(url):
	response = requests.get(url)
	html_str = response.content.decode()
	html = etree.HTML(html_str)
	ret = html.xpath("//div/div[@id='list']/ul/li")
	for table in ret:
		item = {}
		item['title'] = table.xpath(".//div[@class='info']/a//text()")
		item['content'] = table.xpath(".//div[@class='content']//text()")
		print(item)

if __name__ == '__main__':
	get_url('https://ishuo.cn/')

这里只是爬取了标题和内容,感兴趣的话还可以爬取作者,评论,赞数等
爬取到的效果图如下
在这里插入图片描述
正在尝试写博客,把会的分享给你们,如有写的不好的地方,希望指点一下,谢谢!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值