python 使用selenium爬取斗鱼直播房间信息

用到的模块

今天没课,开启正片

  • selenium 打开浏览器提取数据
  • time 每打开一个页面睡眠几秒,防止太快报错还有被发现
  • json 写入文件要用到
完整代码如下(为了减少代码就不使用类了)
from selenium import webdriver
import time
import json

url = "https://www.douyu.com/directory/all"

# 实例化浏览器
Gdriver = webdriver.Chrome()

# 发送请求
Gdriver.get(url)

#打开浏览器后等待几秒,让页面加载完成
time.sleep(2)

next_page = True
while next_page is not None:
    # 提取数据
    room_list = Gdriver.find_elements_by_xpath("//li[@class = 'layout-Cover-item']")
    content_list = []   #一个存放字典的列表
    for i in room_list:
        room_dict = {}
        room_dict["标题"] = i.find_element_by_xpath(".//h3[@class='DyListCover-intro']").get_attribute("title")
        room_dict["类型"] = i.find_element_by_xpath(".//span[@class='DyListCover-zone']").text
        room_dict["主播name"] = i.find_element_by_xpath(".//h2[@class='DyListCover-user']").text
        room_dict["热度"] = i.find_element_by_xpath(".//span[@class = 'DyListCover-hot']").text
        print(room_dict)
        content_list.append(room_dict) #将字典数据放入列表

    # 保存数据
    with open("斗鱼.txt", "a", encoding="utf-8") as f:
        for i in content_list:
            f.write(json.dumps(i, ensure_ascii=False))
            f.write("\n\n")

    # 请求下一页地址,循环
    next_page = Gdriver.find_element_by_xpath("//li[@class=' dy-Pagination-next']/span")
    next_page.click()  #点击下一页
    time.sleep(2)  #睡眠3秒

#退出浏览器
Gdriver.quit()


运行截图

在这里插入图片描述
做完还是挺有成就感的,短短几十行代码,就能获取这么多数据,不足应该是反爬没有做多少,就这样吧

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值