[python3]糗事百科爬虫【1】

本文介绍了使用Python3编写糗事百科的爬虫,目标是抓取第一页上的每个段子的作者信息(名称、头像、性别、年龄)以及段子内容,并将数据保存到Excel文件。首先,介绍了爬虫的背景和需求,接着详细讲解了导入库、获取网页源代码、解析网页结构以提取所需信息,以及如何将数据存储到Excel的步骤。虽然代码初级,但为后续优化打下了基础。
摘要由CSDN通过智能技术生成

案例背景

糗事百科,我们想要python爬虫。爬什么呢?
爬取每个段子的作者名称、头像、性别、年龄、段子内容。
因为是多页的且我是新手,所以我们先从第一页开始做起low版搞起,后面再抽象方法高级版

本次要求:针对第一页,爬取每个段子的作者名称、头像、性别、年龄、段子内容。然后保存到excel中
https://www.qiushibaike.com/hot/page/1/

第一步

导入库

#coding=utf-8
import requests
import io
import sys
import xlwt
from bs4 import BeautifulSoup

第二步

获取网页代码

resp=requests.get('https://www.qiushibaike.com/hot/page/1/') #请求具体某一详情页
#print(resp) #打印请求结果的状态码
#print(resp.content) #打印请求到的网页源码

bsobj=BeautifulSoup(resp.content,'lxml') #将网页源码构造成BeautifulSoup对象,方便操作
a_list=bsobj.findAll('div',class_='author clearfix',) #获取网页中的所有class标签对象定位
i=range(len(a_list))
b_list=bsobj.find_all("div", {
   "class": "content"})
#print(len(b_list))
#a_list=bsobj.find_all(text_="qiushi_tag")
#print(a_list)

第三步

分析网页代码,获取作者、头像、性别、年龄、段子内容。
并且保存Excel
3.1 分析网页代码
在这里插入图片描述
3.2 保存到Excel

book = xlwt.Workbook(encoding="utf-8", style_compression=0)  # 创建workbook对象
sheet = book.add_sheet('糗事百科', cell_overwrite_ok=True)  # 创建工作表
col = ("作者"
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值