python 获取qq群成员信息_教你用python爬取自己加入的QQ群成员名单,它们竟然是这样的人...

本次实验环境:

操作系统:Mac OS

开发语言:python 3.6

IDE:jupyter notebook(建议使用)

浏览器:Chrome(版本75.0.3770.100)

需要用到的库:selenium、bs4、time、datetime、pandas、os。

QQ群的主页为:https://qun.qq.com/member.html。如果想查阅群号为123456的主页,则在主页URL后面加上#gid=123456。即我们想爬取群号为123456的群成员,需要请求的URL为:

https://qun.qq.com/member.html#gid=123456

如果正常登陆页面,第一步需要扫码登陆。如果在电脑端已经登陆过QQ的话,则可以通过选择相应的QQ用户进行登陆。

首先分享我准备的python学习资料,给那些正在学习python的同学,或者准备学习python的同学,关注,转发,私信小编“01”即可免费获取!

登陆后,页面的架构可能会有两种:一种是无群成员积分等级的,如下所示:

另外,一种有群成员积分等级的:

对于两种不同的架构,代码细节上有点出入。不过在本次实验中会识别出是否有群成员积分等级,再获取字段数据。

程序会先创建一个文件夹,用于存放数据集。文件夹命令方式:dataset + yyyymmdd(本日日期)。如果文件夹已存在,则放弃创建。

爬虫开始时,先用selenium模拟打开浏览器,现在selenium为3.x版本,需要下载相应的插件才能启动,否则会报错。对于Chrome浏览器,插件下载地址:http://npm.taobao.org/mirrors/chromedriver/。对于火狐的话:https://github.com/mozilla/geckodriver/releases下载/。下载的时候必须选择与自己浏览器版本相照应的插件版本。

下载完成后解压,并把解压内容添加到python环境变量中去,又或者复制到浏览器安装目录文件中,又或者在代码允许selenium的时候制定插件路径(本次实验中使用的方法)。

代码运行后,会自动弹出新的浏览器,扫码或者点击登陆后,只能展示前面20个左右的群成员名单,需要不停下拉到底部,才能加载到完整的名单信息。在这里通过代码实现。

获取到完整的页面信息后,用BeautifulSoup进行提取数据,并用pandas汇成表格,保存到本地。

具体代码如下(请重点留意代码注释,涉及很多细节。甚至对于不同的操作系统、浏览器也有提醒):

from selenium import webdriver

from bs4 import BeautifulSoup

import time

import datetime

import os

import pandas as pd

def save_data(driver):

res = driver.page_source # 获取源码

driver.quit() # 关闭浏览器

soup = BeautifulSoup(res,"lxml")

html = soup.select("td")

## 先用第2、3 个成员判断一下有无 字段

age_2 = html[ 2 * 10 + 6].text.replace("t", "").replace("n", "") ## Q龄

age_3 = html[ 2 * 10 + 6].text.replace("t", "").replace("n", "") ## Q龄

data = [] if "年" in age_2 and "年" in age_3: ## 说明无

for i in range(5000): ## 每个群最大5000人

try:

item = [] for j in range(2,9):

lineArr = html[ i*10 + j].text.replace("t", "").replace("n", "")

item.append(lineArr) ## 添加每个成员的信息,

data.append(item)

except:

break

cols = ['群成员', '群名片', 'QQ号', '性别', 'Q龄', '入群时间', '最后发言时间'] df = pd.DataFrame(data = data, columns = cols)

if "年" not in age_2 or "年" not in age_3: ## 说明有

for i in range(5000): ## 每个群最大5000人

try:

item = [] for j in range(2,10):

lineArr = html[ i*11 + j].text.replace("t", "").replace("n", "")

item.append(lineArr) ## 添加每个成员的信息,

data.append(item)

except:

break

cols = ['群成员', '群名片', 'QQ号', '性别', 'Q龄', '入群时间', '等级积分', '最后发言时间'] df = pd.DataFrame(data = data, columns = cols)

## 文件命令方式:路径path:./dataset_yyyymmdd/

## 文件名name:群号 + .csv

df.to_csv("./dataset_" + now[:8] + "/" + group_id + '.csv',

encoding = 'utf-8',

index = None)

return df

def scroll_foot(driver):

'''

下拉界面

'''

js="var q=document.documentElement.scrollTop=100000"

return driver.execute_script(js)

now = datetime.datetime.today().strftime("%Y%m%d")

try: ## 创建一个文件夹,用于存放数据集。文件夹命令方式:dataset + yyyymmdd(本日日期)

file = os.mkdir("dataset_" + now)

except: ## 如果文件夹已存在,则放弃创建

pass

group_id = '189200265' ## 需要爬取的群号

url = 'https://qun.qq.com/member.html#gid={}'.format(group_id)

driver = webdriver.Chrome(executable_path = '/Users/apricity/Desktop/chromedriver') # 手动输入插件路径

# driver = webdriver.Firefox() ## 如果是火狐浏览器可以用这行代码替换掉上面的

driver.get(url=url)

## 允许完上面代码后请确认登陆了再运行下面程序

## 可以利用time.sleep 给自己x秒内登陆完成后再自动执行下面程序

time.sleep(10)

max_n = 0

while max_n < len(driver.page_source):

max_n = len(driver.page_source)

scroll_foot(driver)

time.sleep(2.5) ## 每2.5秒下拉一次刷新名单,直至刷新不到新名单位置

df = save_data(driver) ## 保存本地数据

df.head()

以下是本人随便抽了一个群进行爬取的结果展示:

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要使用Python爬取QQ群信息,可以采用以下步骤: 1. 安装必要的库:首先,您需要安装Selenium库,用于模拟登录QQ网页版。您可以使用以下命令在Python中安装Selenium库: ``` pip install selenium ``` 2. 下载并配置浏览器驱动程序:Selenium需要使用浏览器驱动程序来控制浏览器。您可以根据您所使用的浏览器下载相应的驱动程序,如Chrome驱动程序或Firefox驱动程序。下载后,将驱动程序添加到您的系统路径中。 3. 导入必要的库:在Python中,导入Selenium库和WebDriver对象,如下所示: ```python from selenium import webdriver ``` 4. 创建WebDriver对象:使用适当的驱动程序创建WebDriver对象。例如,如果您使用Chrome浏览器,可以使用以下代码创建一个ChromeWebDriver对象: ```python driver = webdriver.Chrome() ``` 5. 打开QQ群页面:使用`get()`方法打开要爬取QQ群链接。链接形式为“https://qun.qq.com/member.html#gid=”加上号码。例如,您可以使用以下代码打开链接: ```python url = "https://qun.qq.com/member.html#gid=号码" driver.get(url) ``` 6. 登录QQ网页版:由于QQ网页版是异步加载的,需要模拟登录才能获取到网页的源码。使用Selenium的自动化操作,您可以模拟点击二维码登录。扫描二维码后,您将登录到QQ网页版。 7. 解析源码并提取所需信息:登录后,您可以使用Selenium的各种方法和技巧来解析页面的源码并提取您想要的QQ群信息。例如,您可以使用XPath或CSS选择器来定位和提取成员的网名、名片、QQ号、性别、Q龄、入时间等信息。 请注意,爬取QQ群信息可能有一些法律和隐私方面的限制,请遵守相关法律法规并尊重用户隐私。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值