B站视频爬取学习(Python)

前言

        仅用于交流学习,不可用于商业用途开发环境,不可非法测试。

        (非大会员,不影响版权)

分析

        我们要爬取的是视频,那肯定要爬取的是两样东西,视频跟音频。

        在开始爬取的时候我们先要对网站进行一些信息收集,方便后面的爬取。

        收集视频,音频,可以搜索mp4,m3u8,m4s,m4a等。

开始实践

        先想一下自己喜欢什么类型的视频,然后去搜索,搜索出来的视频就是我们要爬取的。

        我们先在python中发送请求,看看有没有我们想要的数据

import requests
import re


# 爬取多视频源网站
url = 'https://search.bilibili.com/all?keyword=****'

# 认证
header = {
    "Referer": "https://www.bilibili.com/",     # 防盗链,用于告诉服务器我是从哪个链接来的。
    "user-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36 Edg/111.0.1661.62",
    "cookie": "*******"
}
response = requests.get(url, headers=header).text
print(response)

        (这个认证,一般就写user-Agent,如果放回的数据中没有你想要的,是其他的内容,可以       试着多加上几个认证)       

        这里放回的数据中刚好有我们想要的数据

         我们先把视频的地址给过滤出来,因为我们现在是在一个搜索页面上,还没有到看视频的网页上。

url_s = re.findall('<a href="(.*?)" target="_blank" data-v-15c84221>', response)

        这边会发现有一些地址是重复的,我们观察一下,再过滤一遍

url_s = re.findall('<a href="(.*?)" target="_blank" data-v-15c84221>', response)[1::2]

        我们再后面加上[1::2]作为切片,切分开来

        现在这是一个数组,我们遍历出来,然后一个一个请求

for url_s in url_s:
    url = f'http:{url_s}'
    response_s = requests.get(url, headers=header).text

        我们现在开始过滤出视频的名称

name = re.findall('<h1 title="(.*?)" class="video-title"', response_s)[0]  # 匹配名称

        这边为什么在后面加上[0],因为过滤出来的名称还是数组,是数组的话,我们后面可能还要遍历一次,我[0]就直接取数组中第一个数据,然后刚好一个数组里面就只有一个数据

        接下来我们要的是视频和音频的地址

        经过在源码一顿瞎找,最后找到这一串

rp = re.findall('<script>window.__playinfo__=(.*?)</script>', response_s)
print(rp)

        这里面存在视频跟音频的地址,我们过滤出来 

r_url = re.findall('"video":.*?"id":32,"baseUrl":"(.*?)"', str(rp))[0]   # 视频地址
r_url2 = re.findall('"audio":.*?"id":30280,"baseUrl":"(.*?)"', str(rp))[0]   # 音频地址·

        现在信息分析的差不多了,视频地址跟音频地址都拿到了

        接下来就是请求了

    res1 = requests.get(url=r_url, headers=header).content  # 视频
    res2 = requests.get(url=r_url2, headers=header).content  # 音频

        把视频跟音频分别保存在一个文件中

os.mkdir(f'D:/python1/py/case_data/video/{name}')

with open(f'路径/{name}/1' + '.mp3', mode='wb') as f:
    f.write(res2)
with open(f'路径/{name}/2' + '.mp4', mode='wb') as f:
    f.write(res1)

        我们查看一下运行查看一下文件中有没有文件,能不能正常打开

 接下来我们使用工具ffmpeg合并视频跟音频

工具下载地址:Download FFmpeg

简单的学一下这个工具的使用,记住配置一下环境变量 

 我们利用os模块执行系统命令,将视频与音频合并

os.system(f'ffmpeg -i "地址/{name}/1.mp3" -i "地址/{name}/2.mp4" -acodec copy -vcodec copy 地址/{name}/{name}.mp4')

这样就合并成功了,先要的视频也能正常播放,如果有问题可以试着看看是那里出问题了。

总结

        代码还是蛮简单的,信息收集的到位,后续写代码就不会太麻烦

        本文只适合学习😁😁😁

  • 10
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
Python爬虫用于从网站上抓取数据B站(哔哩哔哩)虽然提供了API供开发者使用,直接爬取4K视频可能涉及到版权和反爬策略的问题。不过,如果你是为了学习爬虫技术,我可以简单介绍如何使用Python爬虫的基本步骤来抓取公开的网页信息: 1. **了解目标网站结构**:首先分析B站的HTML结构,找到视频链接、标题、描述等你想要的数据所在的HTML元素。 2. **使用requests库**:使用Python的requests库来发送HTTP请求获取网页内容。 ```python import requests response = requests.get('https://www.bilibili.com/video/BV号') ``` 替换`BV号`为实际的视频ID。 3. **解析HTML**:使用如BeautifulSoup或lxml这样的库解析HTML,提取所需信息。对于B站,通常可以通过`response.text`获取HTML内容,然后查找特定的class或id。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, 'lxml') video_title = soup.find('div', class_='title').text video_url = soup.find('source', src=True)['src'] ``` 4. **处理4K视频**:由于4K视频通常不在HTML中直接给出,可能需要通过JavaScript动态加载。在这种情况下,你可能需要使用如Selenium这样的工具来模拟浏览器行为。 5. **保存数据**:将提取到的信息保存到文件、数据库或进行进一步的处理。 注意: - B站的反爬策略很强,频繁请求可能会被封IP,因此在实际操作时需要设置合理的间隔时间(使用`time.sleep()`)。 - 尽量只抓取公开的、非私密的资源,尊重版权。 - 官方API是更好的选择,如果可能,尽量使用它们。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值