下载B站视频的一次经验

今天需要把B站上面的一些视频下载下来,发现还是比较麻烦的。

首先B站的视频用硕鼠下载,最好是下载个硕鼠的本地版本,在线也可以下载但是太慢了:

下载地址是:http://download.flvcd.com/

下载安装之后把B站视频的网址直接粘到硕鼠里就行

下载下来的视频格式是flv,我是需要把他转成mp4格式,所以又下载了一个格式转换工具Prof. Media

下载地址是:http://www.pc6.com/softview/SoftView_580372.html

挺好使的,不过不付费的话只能转换5分钟之内的视频

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
Python爬虫抓取B站视频通常会使用第三方库如`bs4`(BeautifulSoup)配合`requests`来解析HTML并获取数据,对于B站这种有反爬机制的网站,可能还需要处理Cookie、验证码等。以下是一个简单的步骤概述: 1. **安装必要的库**: 首先确保已安装`requests`, `beautifulsoup4`以及`lxml`(如果`bs4`需要这个作为解析引擎)。 ```bash pip install requests beautifulsoup4 lxml ``` 2. **设置基础请求**: 使用`requests.get()`获取首页内容,并分析网页结构找到分页链接。 ```python import requests # 获取首页URL base_url = "https://www.bilibili.com/video" response = requests.get(base_url) ``` 3. **解析HTML**: 使用`BeautifulSoup`解析HTML,找到视频链接、标题等信息。 ```python from bs4 import BeautifulSoup # 解析HTML soup = BeautifulSoup(response.text, 'lxml') videos = soup.select('.video-item') # 假设视频元素有此类名 ``` 4. **遍历分页并提取数据**: 查找页面底部的分页链接,然后递归地爬取下一页的内容。这里仅演示前两页,实际应用需循环多次。 ```python def crawl_videos(page): if page > 3: # 只爬取前三页 return next_page_url = find_next_page_url(soup) # 自定义函数查找下一页链接 response = requests.get(next_page_url) # ... 重复解析HTML部分 ... def find_next_page_url(soup): # 找到下一页链接并拼接完整URL # 这里只是一个示例,实际页面结构可能会变化 pagination = soup.find('a', {'class': 'page-item-next'}) if pagination: return base_url + pagination['href'] else: return None crawl_videos(1) # 起始页,一般为1 crawl_videos(2) crawl_videos(3) ``` 5. **保存数据**: 根据需要将数据存储到文件、数据库或其他地方,比如可以使用CSV、JSON或数据库操作。 注意: - B站有严格的反爬策略,频繁请求可能导致IP被封禁。在实际使用时,记得设置延迟(例如使用`time.sleep()`),并且遵守网站的robots.txt规则。 - 如果遇到动态加载的数据(如Ajax),可能需要使用Selenium等工具配合浏览器模拟交互。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值