python爬虫项目实战,爬取用户的信息,让你更好的筛选 ...

1.导入模块

import urllib.request
 from bs4 import BeautifulSoup

2.添加头文件,防止爬取过程被拒绝链接

def qiuShi(url,page):
 ################### 模拟成高仿度浏览器的行为 ##############
 # 设置多个头文件参数,模拟成高仿度浏览器去爬取网页
 heads ={
 'Connection':'keep-alive',
 'Accept-Language':'zh-CN,zh;q=0.9',
 'Accept':'text/html,application/xhtml+xml,application/xml;
 q=0.9,image/webp,image/apng,*/*;q=0.8',
 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 
 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
 }
 headall = []
 for key,value in heads.items():
 items = (key,value)
 # 将多个头文件参数一个一个添加到headall列表中
 headall.append(items)
 # print(headall)
 # print('测试1--')
 
 # 创建opener对象
 opener = urllib.request.build_opener()
 # 添加头文件到opener对象
 opener.addheaders = headall
 # 将opener对象设置成全局模式
 urllib.request.install_opener(opener)
 # 爬取网页并读取数据到data
 data = opener.open(url).read().decode()
 # data1 = urllib.request.urlopen(url).read().decode('utf-8')
 # print(data1)
 # print('测试2--')
 ################## end ########################################

3.创建soup解析器对象

soup = BeautifulSoup(data,'lxml')
 x = 0
4.开始使用BeautifulSoup4解析器提取用户名信息
############### 获取用户名 ########################
 name = []
 # 使用bs4解析器提取用户名
 unames = soup.find_all('h2')
 # print('测试3--',unames)
 for uname in unames:
 # print(uname.get_text(),'第',page,'-',str(x)+'用户名:',end='')
 # 将用户名一个一个添加到name列表中
 name.append(uname.get_text())
 # print(name)
 # print('测试4--')
 #################end#############################

5.提取发表的内容信息
发表的内容

cont = []
data4 = soup.find_all('div',class_='content')
# print(data4)
# 记住二次筛选一点要转换成字符串形式,否则报错
data4 = str(data4)
# 使用bs4解析器提取内容
soup3 = BeautifulSoup(data4,'lxml')
contents = soup3.find_all('span')
for content in contents:
# print('第',x,'篇糗事的内容:',content.get_text())
# 将内容一个一个添加到cont列表中
cont.append(content.get_text())
# print(cont)
# print('测试5--')
##############end####################################

**6.提取搞笑指数**
 #################搞笑指数##########################
 happy = []
 # 获取搞笑指数
 # 第一次筛选
 data2 = soup.find_all('span',class_="stats-vote")
 # 获取搞笑指数
 # 第二次筛选
 data2 = str(data2) # 将列表转换成字符串形式才可以使用
 # print(data2)
 # print('测试6--')
 soup1 = BeautifulSoup(data2,'lxml')
 happynumbers = soup1.find_all('i',class_="number")
 for happynumber in happynumbers:
 # print(happynumber.get_text())
 # 将将搞笑数一个一个添加到happy列表中
 happy.append(happynumber.get_text())
 # print(happy)
 # print('测试7--')
 ##################end#############################

如果你跟我一样都喜欢python,想成为一名优秀的程序员,也在学习python的道路上奔跑,欢迎你加入python学习群:python群号:491308659 验证码:南烛
群内每天都会分享最新业内资料,分享python免费课程,共同交流学习,让学习变(编)成(程)一种习惯!

7.提取评论数

############## 评论数 ############################
 comm = []
 data3 = soup.find_all('a',class_='qiushi_comments')
 data3 = str(data3)
 # print(data3)
 soup2 = BeautifulSoup(data3,'lxml')
 comments = soup2.find_all('i',class_="number")
 for comment in comments:
 # print(comment.get_text())
 # 将评论数一个一个添加到comm列表中
 comm.append(comment.get_text())
 ############end#####################################

8.使用正则表达式提取性别和年龄

######## 获取性别和年龄 ##########################
 # 使用正则表达式匹配性别和年龄
 pattern1 = '<div class="articleGender (w*?)Icon">(d*?)</div>'
 sexages = re.compile(pattern1).findall(data)
 # print(sexages)

9.设置用户所有信息输出的格局设置

################## 批量输出用户的所以个人信息 #################
 print()
 for sexage in sexages:
 sa = sexage
 print('*'*17, '=_= 第', page, '页-第', str(x+1) + '个用户 =_= ','*'*17)
 # 输出用户名
 print('【用户名】:',name[x],end='')
 # 输出性别和年龄
 print('【性别】:',sa[0],'  【年龄】:',sa[1])
 # 输出内容
 print('【内容】:',cont[x])
 # 输出搞笑数和评论数
 print('【搞笑指数】:',happy[x],' 【评论数】:',comm[x])
 print('*'*25,' 三八分割线 ','*'*25)
 x += 1
 ###################end##########################

10.设置循环遍历爬取13页的用户信息

for i in range(1,14):
 # 糗事百科的网址
 url = 'https://www.qiushibaike.com/8hr/page/'+str(i)+'/'
 qiuShi(url,i)

运行结果,部分截图:
image

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值