第5关:爬取单页多个div标签的信息

任务描述

本关任务:改进上一关的代码。爬取湖南大学讲座网页的多个讲座信息,存储在二维列表jzxx中。 湖南大学讲座信息的网址为学术活动-湖南大学

相关知识

find_all函数 通过BeautifulSoup的find_all(name,attr)方法,可以找到符合条件的多个标签,将多个标签的内容返回为一个列表 lb=bg.find_all("div",class="xinwen-wen") 找到网页的所有class属性为xinwen-wen的div标签,存入列表lb

列表的操作 对于得到的多个标签的列表,使用for循环,可以依次访问每个标签,使用find函数找出其时间、标题和地点的文本,加入到列表,再加入二维列表jzxx中。

编程要求

根据提示,在右侧编辑器补充代码,爬取湖南大学讲座网页的多个讲座信息,存储在二维列表jzxx中。


开始你的任务吧,祝你成功!

import requests

from bs4 import BeautifulSoup

url = 'https://www.hnu.edu.cn/xysh/xshd.htm'

r = requests.get(url)

r.encoding = 'utf-8'

jzxx=[]

#代码开始

soup = BeautifulSoup(r.text, "html.parser")

lb = soup.find_all("div", class_="xinwen-wen")

for i in lb:

    jzsj = i.find("div", class_= "xinwen-sj-top").text.strip()

    jzbt = i.find("div", class_= "xinwen-wen-bt").text.strip()

    jzdd = i.find("div", class_= "xinwen-wen-zy").text.strip()

    jzxx.append([jzsj,jzbt,jzdd])

   

#代码结束

f1=open("jzxx2.txt","w")

for xx in jzxx:

    f1.write(",".join(xx)+"\n")

f1.close()

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值