python---爬取某鱼直播

用了selenium,才深刻的体会到它的好处,更加的方便更加的快捷,更容易的获取网页的信息。

 


 

这里用selenium爬取某鱼直播下面的前五页的直播间信息,例如直播房间名,主播名,直播热度,以及直播的类别。即图片红色下横线的东西。首先进入斗鱼的页面,选择直播,接着复制url备用,然后就按F12去分析

 

做爬虫的步骤还是那样,先去原网页的地址找到数据的位置,接着提取出需要的数据,在整理起来,保存起来。

 

这里我获取的只有前5页的直播间信息。当然可以获取更多的内容。做爬虫只是为了方便统计以及数据的可视化,便于学习和观察,并不能做什么非法操作。主要目的都是为了学习。

 

用selenium爬取网页的坑就只有一两个:

第一:获取url后,需要等待个几秒,让网页充分缓冲之后才去提取网页的数据,这样才能提取到数据,否则就是一个框架,并不能得到有用的消息。

 

第二,如果要实现换页功能的话,需要将解析网页的语句也放入循环,不然也会报错

 

第三,就是用selenium的时候一定要匹配好单引号和双引号,在python的习惯下,字符串就一般使用单引号去用,而网页的数据是双引号的话也提取不到数据。

 

第四,换页操作的时候,选择正确的class名字至关重要

如果用浏览器的f12的选择的功能,他会定位到这里黑色下划线的地方,但是要实现换行要选择红色下划线的class名,才能实现。

 

关于用selenium去爬取的东西也没其他的了,详细的操作可以去这里看

python-- 爬虫之用Selenium做爬虫

下面贴一下代码,代码仅供参考,如若有错,欢迎指出:

from selenium import webdriver
import time

path = '这里是你的selenium的驱动的地址'
url = 'https://www.douyu.com/directory/all'
browser = webdriver.Chrome(executable_path=path)
browser.maximize_window()
browser.get(url)
time.sleep(10)

allzhibo = []

nnum = 0
page = 0
while page<1:
    li_list = browser.find_elements_by_xpath('//ul[@class="layout-Cover-list"]/li')
    num = 0
for i in li_list:
        zhibo = {}
        if num >=10:
            zhibo['数目'] = nnum
            num+=1
nnum+=1
zhibo['直播房间名'] = i.find_element_by_class_name("DyListCover-intro").text
            zhibo['主播'] = i.find_element_by_class_name("DyListCover-user").text
            zhibo['直播热度'] = i.find_element_by_class_name("DyListCover-hot").text
            zhibo['分类'] = i.find_element_by_class_name("DyListCover-zone").text
            allzhibo.append(zhibo)
        else:
            num+=1
    nextpage = browser.find_element_by_class_name("dy-Pagination-next")
    nextpage.click()
    page+=1
time.sleep(10)
#这里实现的是将数据保存到文本里去
with open('某鱼直播.txt','w',encoding='utf-8') as f:
    for i in allzhibo:
        for j in i.keys():
            print(j+':'+str(i[j])+' ')
            f.write(j+':'+str(i[j])+' ')
        f.write('\n')
browser.close()

 

最后得到结果就是这样的:

然后可以对这些数据进行分类排序,就可以得到一些热度最高的直播间,或者是什么分类的直播间有那些的操作。

 


最后祝大家中秋快乐!!!

### 八爪工具爬取游记内容的方法 八爪是一款强大的可视化数据采集工具,尤其适合非技术背景的用户进行网页数据抓取。对于爬取游记内容,可以通过以下步骤实现。 #### 1. 确定目标网站与数据字段 首先需要明确目标网站(如某蜂窝网),分析页面结构,确定要抓取的字段,例如游记标题、作者、正文内容、发布时间、评论数、浏览量等。通过浏览器开发者工具(F12)可以查看网页的HTML结构,找到对应字段的标签位置[^2]。 #### 2. 使用八爪配置采集规则 打开八爪工具后,选择“自定义采集”模式,输入目标网站的URL。进入页面后,通过“点击元素”功能依次选择游记列表页中的每篇游记链接,进入详情页后继续配置采集字段。例如: - 标题:选中游记标题所在的HTML元素; - 正文:选中包含游记内容的容器; - 作者:定位到作者名称所在的标签; - 发布时间:找到时间信息配置; - 评论数和浏览量:同样通过选中对应的元素完成配置。 八爪支持循环采集,可以自动遍历列表页中的所有游记条目,依次抓取每篇游记的详细信息[^2]。 #### 3. 分页与翻页设置 如果游记列表页存在多页内容,需要配置翻页规则。八爪提供“点击下一页”或“循环翻页”的功能,根据目标网站的分页机制进行设置。例如,可以指定点击“下一页”按钮,或自动替换URL中的页码参数来实现翻页抓取。 #### 4. 数据导出 配置完成后,启动采集任务。数据抓取完毕后,可以在八爪中选择导出格式,如Excel、CSV等,方便后续进行数据分析和处理。此外,还可以设置定时采集任务,定期更新数据。 #### 5. 示例代码(适用于Python用户) 对于有一定编程基础的用户,也可以使用Python结合八爪的API进行数据抓取。以下是一个简单的示例代码: ```python import requests import json # 配置八爪API请求参数 url = "https://api.example.com/crawler" headers = { "Authorization": "Bearer YOUR_API_KEY" } data = { "task_id": "YOUR_TASK_ID", "page": 1 } # 发送请求获取数据 response = requests.post(url, headers=headers, data=data) result = response.json() # 输出采集结果 print(json.dumps(result, indent=4)) ``` 该代码展示了如何通过API调用八爪任务,获取采集结果。实际使用时需根据具体API文档进行调整。 --- ####
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值