python天涯帖子_python爬虫获取多页天涯帖子

今天练习了抓取多页天涯帖子,重点复习的知识包括

soup.find_all和soup.selcet两个筛选方式对应不同的参数;

希望将获取到的多个内容组合在一起返回的时候,要用'zip()'的代码来实现;

两层代码结构之间的关系如何构造;

这里有一个疑问:有时候一个标签可以有多个属性,不知道soup.find_all()能不能接受不止一个属性以缩小查找的范围。

# 引入库和请求头文件

import requests

from bs4 import BeautifulSoup

headers = {

'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'

}

# 定义主体函数。函数主体由四部分组成:

#1.请求网址

#2.解析网页,形成可查找的html格式

#3.通过soup.select或者sopu.find_all查找需要的标签

#4.通过zip()代码将多个内容合并在一起

def get_content(url):

res = requests.get(url,headers = headers)

res.encoding = 'utf-8'

soup = BeautifulSoup(res.text,'html.parser')

contents = soup.find_all('div','bbs-content')

authors = soup.find_all('a','js-vip-check')

for author,content in zip(authors,contents):

data = {

'author':author.get_text().strip(),

'content': content.get_text().strip()

}

print(data)

# 在这里构造一个两层链接结构:帖子的1、2、3、4页和帖子的详情页的关系在这里实现

if __name__ == '__main__':

urls = ['http://bbs.tianya.cn/post-develop-2271894-{}.shtml'.format(str(i)) for i in range (1,5)] # 要注意,这里的‘5'是不包括在范围里的

for url in urls:

get_content(url)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值