html收集用户信息的标签,Python实现抖音网页端用户页面信息爬取

抖音的用户信息页的网址有3种形式,分别是:

https://v.douyin.com/GW5S6D/

https://www.iesdouyin.com/share/user/88445518961?sec_uid=MS4wLjABAAAAWxLpO0Q437qGFpnEKBIIaU5-xOj2yAhH3MNJi-AUY04&timestamp=1582709424&utm_source=copy&utm_campaign=client_share&utm_medium=android&share_app_name=douyin

https://www.douyin.com/share/user/88445518961

链接1是从客户端分享的短链接,在浏览器地址栏输入后重定向至链接2的形式。链接2和链接3很明显地把用户的UID显示出来,这个用户的UID为88445518961。

ce10d281382366bf061c1d1664f9de0d.png

8f9e1f631a57d2330c21ea951f942a88.png

目标:抓取用户名、保存用户头像、UID、抖音ID、签名、关注数、粉丝数、赞数、作品数、喜欢数

0. 获取HTML

使用requests获得响应并利用BeautifulSoup来查找目标值,代码如下

import requests

from bs4 import BeautifulSoup as bs

def getHtml(url):

header = {"user-agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60"}

#try: 不必处理异常

response = requests.get(url=url, headers=header)

return bs(response.text, 'lxml') # lxml需要安装,可以选用html.parser

#except: 不必处理异常

# print('网址错误')

# quit()

url = 'https://www.iesdouyin.com/share/user/88445518961?sec_uid=MS4wLjABAAAAWxLpO0Q437qGFpnEKBIIaU5-xOj2yAhH3MNJi-AUY04&timestamp=1582709424&utm_source=copy&utm_campaign=client_share&utm_medium=android&share_app_name=douyin'

soup = getHtml(url)

1.  抓取用户名

e87f48c5525dcbbd3ba2ce34a2536fa4.png

只要查找class="nickname"属性的标签

,标签内的内容即用户名

nickname = soup.find(name='p', attrs={'class': 'nickname'}).string

2. 保存头像

2747eb14011e2424b0b0e39b32f1017c.png

红色框内src的属性值就是头像的下载链接。同样通过find函数查找class="avatar"的标签

1275325161628778496.htm里另一属性src的值,下载图像后,文件保存在avatar目录下,文件名为nickname.jpeg。定义一个保存头像的函数

import os</

### 使用八爪鱼抓取关键词数据 #### 准备工作 为了成功利用八爪鱼RPA工具来获取平台上的特定关键词信息,需先完成必要的准备工作。这包括但不限于安装并启动八爪鱼软件环境,注册登录账号以及熟悉界面操作[^1]。 #### 创建新项目 进入八爪鱼的操作面板之后,在新建项目的向导里选择适合社交网络的数据采集模板或者是自定义创建一个新的虫任务以适应的具体结构特点[^4]。 #### 配置抓取规则 针对网站的特点配置相应的抓取逻辑,特别是对于含有目标关键词的内容页面定位。此过程可能涉及到设置URL模式匹配、HTML标签解析路径等技术细节,确保能够精准锁定包含所需关键词的信息片段[^5]。 #### 执行与监控 设定好所有参数后即可运行该任务开始收集数据。期间应密切监视进程状态,及时处理可能出现的各种异常情况如验证码验证失败等问题,保证整个流程顺畅无阻地进行下去。 #### 数据清洗与分析 一旦完成了初步的数据提取工作,则要对原始记录做进一步清理加工——去除冗余字段、纠正错误条目等等;最后运用内置或第三方工具来进行多维度统计汇总,形成直观易懂的结果展示图表供后续研究使用。 ```python import requests from bs4 import BeautifulSoup def fetch_douyin_data(keyword): url = f"https://www.douyin.com/search/{keyword}" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)', } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, "html.parser") items = [] for item in soup.select('.search-item'): title = item.find('h3').get_text(strip=True) link = item['href'] data_item = {"title": title, "link": link} items.append(data_item) return items ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值