解决bilibili的电脑客户端UWP下载的mp4视频无法播放@

解决bilibili的电脑客户端UWP下载的mp4视频无法播放@TOC

问题:mp4播放器无法播放UWP下载的mp4视频

原因:UWP电脑客户端下载的mp4格式视频文件在文件编码上比普通的mp4视频文件多了一些数据;导致mp4播放器无法播放该视频。

在这里插入图片描述

解决措施:将对应的编码数据删除

方法1:使用推荐的WinHex工具

参考链接:[Bilibili(UWP版)下载视频后,解决不能播放的问题](https://blog.csdn.net/m0_56802351/article/details/134019139?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170987812016800227438527%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=170987812016800227438527&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~hot_rank-2-134019139-null-null.nonecase&utm_term=bilibili%20UWP%E4%B8%8B%E8%BD%BD%E7%9A%84%E8%A7%86%E9%A2%91%E6%97%A0%E6%B3%95%E6%92%AD%E6%94%BE&spm=1018.2226.3001.4450)

方法2:python编写代码删除对应的编码数据

代码逻辑:获取当前路径下的所有mp4格式文件、判断该文件编码是否以FFFFFF为起点;修改编码保存视频;
由于UWP下载的视频均是以单独的文件夹形式存在,将所有的mp4文件全部放在一起更整洁。
代码如下:


import os
import shutil

# 去除编码
def remove_ff(full_path):
    flag = False
    with open(full_path, 'rb') as file:
        start1 = file.read(1)
        start2 = file.read(1)
        start3 = file.read(1)
        if start1 == b'\xff' and start2 == b'\xff' and start3 == b'\xff':
            dirname = os.path.dirname(full_path)
            temp_name = os.path.join(dirname, 'temp.mp4')
            print('生成文件:', full_path)
            f2 = open(temp_name, 'wb')
            nums = 0
            while f2.write(file.read(1024*1024)):
                nums += 1
            print("处理文件大小:", nums, 'M')
            f2.close()     
            print('处理完成')       
            flag = True
        else:
            print('此文件无需处理')
    if flag:
        if os.path.exists(full_path):
            os.remove(full_path)
        os.rename(temp_name, full_path)


# 复制文件
def mycopy(srcpath, dstpath):
    if not os.path.exists(srcpath):
        print("srcpath not exist!")
    if not os.path.exists(dstpath):
        print("dstpath not exist!")
    for root, dirs, files in os.walk(srcpath, True):
        for eachfile in files:
            if (eachfile.endswith('.mp4')):
                shutil.copy(os.path.join(root, eachfile), dstpath)




if __name__ == '__main__':
    print('程序开始')
    counter = 0
    dirname = os.path.dirname(os.path.realpath(__file__))
    print('当前文件夹名称为:',dirname)
    
	# 将所需文件移动到指定的文件夹下
    mycopy(dirname,dirname)

    # 更改文件编码
    for name in os.listdir(dirname):
        if name.endswith('.mp4'):
            counter += 1
            print('处理文件序号:', counter, ',处理文件名称:',name)
            remove_ff(os.path.join(dirname, name))
    print('程序结束')
   
  • 8
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值