使用BeautifulSoup爬网页指定内容

该博客介绍了如何运用BeautifulSoup库抓取百度贴吧首页的帖子主题及其对应作者信息,并将这些信息存储到字典中。
摘要由CSDN通过智能技术生成

利用BeautifulSoup爬取百度某贴吧首页所有的帖子主题和对应的作者名字(要求存到字典中)。

import requests
from bs4 import BeautifulSoup

url = 'https://tieba.baidu.com/f?kw=%E5%8C%97%E4%BA%AC%E4%BA%A4%E9%80%9A%E5%A4%A7%E5%AD%A6%E6%B5%B7%E6%BB%A8%E5%AD%A6%E9%99%A2&fr=index'
head = {'user-agent':'Mozilla/5.0',
        'cookie':'你的cookie'
}
rw = requests.get(url=url,headers=head)
rw.encoding='utf-8'
soup = BeautifulSoup(rw.text,'lxml')

Titles = soup.find_all('a',class_="j_th_tit")
Authors = soup.find_all('span',class_="tb_icon_author")
dict ={}
for key,value in zip(Titles,Authors):
    dict[key.string] = value.get("title")
#   dict[key.get("title")] = value.get("title")
print(dict)

运行结果

D:\PyCharmProject\venv\Scripts\python.exe D:/PyCharm
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值