通过python如何实现视频提取音频,并将音频转文本

大致思路:

(1)使用moviepy库中的VideoFileClip类读取视频文件,并将其转换为音频文件;

(2)使用pydub库中的splitonsilence函数将音频文件分割成多个音频片段,以便进行语音识别;

(3)使用SpeechRecognition库中的Recognizer类进行语音识别,并将识别结果写入文本文件中

注意:

将音频文件分割成多个音频片段,并对每个片段进行语音识别,最终将所有识别结果合并成一个文本文件。

运行环境简述:

(1)Mac OS 13.3.1

(2)pycharm 2021.1 

整体代码:

from moviepy.editor import VideoFileClip
from pathlib import Path
import os
import speech_recognition as sr
from pydub import AudioSegment
import datetime
from pydub.silence import split_on_silence
from tqdm import tqdm

# 视频文件夹路径
video_folder = './folder'

# 初始化语音识别器
r = sr.Recognizer()

# 遍历视频文件夹中的所有视频文件
for video_file in tqdm(Path(video_folder).rglob('*.mp4')):
    # 提取视频文件名和扩展名
    file_name = video_file.stem
    print(f'Processing video file: {file_name}')

    # 构建视频文件路径和音频文件路径
    audio_file = f'{file_name}.wav'
    video_clip = VideoFileClip(str(video_file))
    video_clip.audio.write_audiofile(audio_file)


def get_large_audio_transcription(path):
    sound = AudioSegment.from_wav(path)
    chunks = split_on_silence(sound, min_silence_len=500, silence_thresh=sound.dBFS - 14, keep_silence=500, )
    folder_name = "audio-chunks"
    # 要创建一个目录来存储音频块
    if not os.path.isdir(folder_name):
        os.mkdir(folder_name)
    whole_text = []
    time_lines = []
    # 处理每一个音频模块
    start_time = datetime.datetime.fromisoformat('2022-01-01T00:00:00')

    for i, audio_chunk in enumerate(chunks, start=1):
        # 导出音频,并保存
        chunk_filename = os.path.join(folder_name, f"chunk{i}.wav")
        audio_chunk.export(chunk_filename, format="wav")

      
        with sr.AudioFile(chunk_filename) as source:
            audio_listened = r.record(source)
       
        text = ""
        try:
            text = r.recognize_google(audio_listened, language="zh-CN", show_all=True)
            if text and len(text['alternative']) > 0:
                text = text['alternative'][0]['transcript']
            else:
                text = ""
        except sr.UnknownValueError as e:
            # print("Error:", str(e))
            pass
        else:
            if text:
                text = f"{text.capitalize()}."
                # print(start_time.time(), ":", text)
                whole_text.append(text)
                time_lines.append(start_time)
                duration = audio_chunk.duration_seconds
                start_time += datetime.timedelta(seconds=duration)
    # return the text for all chunks detected
    return whole_text, time_lines


# 使用SpeechRecognition库进行语音识别
with open(f'{file_name}.txt', 'w', encoding='utf-8') as f:
    for text, time in tqdm(zip(*get_large_audio_transcription(audio_file)),
                           total=len(list(get_large_audio_transcription(audio_file)))):
        f.write(f'{time.time()} {text}\n')

print('All done!')

运行结果:

 

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 要用Python实现视频字幕提取,需要用到一些第三方库。以下是一种使用Python和FFmpeg和pytesseract的方法: 1.安装FFmpeg和pytesseract 首先需要安装FFmpeg和pytesseract。在Windows上,可以从官方网站下载FFmpeg二进制文件并将其添加到PATH环境变量。要安装pytesseract,可以使用pip: ``` pip install pytesseract ``` 2.导入所需库 在Python,需要导入一些库以便进行视频字幕提取。这些库包括cv2、pytesseract、numpy和subprocess。您可以使用以下代码导入这些库: ```python import cv2 import pytesseract import numpy as np import subprocess ``` 3.提取视频帧 使用OpenCV(cv2库)加载视频文件并读取每个帧。可以使用以下代码: ```python vidcap = cv2.VideoCapture('video.mp4') success,image = vidcap.read() count = 0 while success: cv2.imwrite("frame%d.jpg" % count, image) # save frame as JPEG file success,image = vidcap.read() count += 1 ``` 上面的代码将读取名为“video.mp4”的视频文件,并将其帧保存为图像文件。将其保存到当前目录下,以图像序列的形式命名为“frame0.jpg”、“frame1.jpg”等。 4.使用pytesseract提取字幕 使用pytesseract库从每个帧提取字幕。可以使用以下代码: ```python for i in range(count): img = cv2.imread('frame%d.jpg' % i) gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret,thresh1 = cv2.threshold(gray,200,255,cv2.THRESH_BINARY) kernel = np.ones((1,1),np.uint8) img = cv2.dilate(thresh1,kernel,iterations = 1) img = cv2.erode(img,kernel,iterations = 1) out_below = pytesseract.image_to_string(img) print("frame ", i, " : \n") print(out_below) ``` 上面的代码将循环每个帧,将其加载为图像,将其换为灰度图像,二值化处理,扩张和腐蚀处理以增强文本。然后,它使用pytesseract将文本从帧提取出来,并将其打印到控制台。 5.删除生成的图像文件 最后,需要删除生成的图像文件。可以使用以下代码: ```python for i in range(count): file = "frame%d.jpg" % i subprocess.run(['rm', file]) ``` 上面的代码将循环每个帧文件,并使用subprocess库的rm命令删除它们。 总结 通过上述步骤,我们可以使用Python和第三方库实现视频字幕提取。您可以使用其他方法来进一步优化提取文本的过程,例如改变字幕区域的大小和位置,使用不同的图像处理技术等。 ### 回答2: 要实现视频字幕提取,可以使用Python的一些库和工具来完成。以下是一种实现方法: 1. 安装所需库:使用Python的pip命令安装所需库,包括OpenCV、pytesseract和Pillow。 2. 导入所需库:在Python脚本导入所需的库和模块。 3. 读取视频文件:使用OpenCV库的VideoCapture函数读取视频文件。可以使用视频的文件路径作为参数,返回一个视频对象。 4. 视频处理:在循环,逐帧读取视频,对每一帧进行处理。 5. 图像处理:将每一帧换为灰度图像,以便于后续的文字提取和识别。 6. 提取字幕:使用pytesseract库的image_to_string函数将图像换为文字。可以设置适当的参数,例如语言和字符集,以获取更好的结果。 7. 文字处理:对提取的文字进行必要的处理,例如去除空格、标点和其他噪音。可以使用Python的字符串操作和正则表达式来完成。 8. 字幕保存:将处理后的字幕保存到文件,以便后续使用或分析。 9. 释放资源:在处理完成后,记得释放所有资源,包括关闭视频对象和清理内存。 10. 运行脚本:使用Python解释器运行脚本,并观察输出和保存的字幕文件。 请注意,实际实现可能会遇到一些挑战和问题,例如视频压缩格式、字幕样式和位置的变化等。因此,根据具体情况和需求进行适当的调整和优化。 ### 回答3: 要使用Python实现视频字幕提取,可以按照以下步骤进行操作: 1. 导入所需的库:安装并导入`moviepy`库,这是一个处理视频的强大库。 2. 加载视频文件:使用`VideoFileClip`函数加载视频文件,例如`video = VideoFileClip("video.mp4")`。 3. 提取视频音频:使用`audio = video.audio`提取视频音频部分。 4. 将音频换为文字:使用语音文本的API,如百度云、腾讯云或Google Cloud API,将音频换为文字。调用相应的API,并传入音频文件,获得文字结果。例如,使用百度云API:`result = baidu_api.audio_to_text(audio)`。 5. 处理文字结果:根据API返回的结果,可以对文字进行处理和清洗。例如删除标点符号、过滤无关的字幕等。 6. 输出字幕:将处理后的文字结果保存为字幕文件,如SRT格式或VTT格式。可以使用库如`pysrt`或`webvtt-py`来生成字幕文件。 7. 完整代码示例: ```python from moviepy.editor import VideoFileClip import baidu_api # 假设有一个baidu_api.py文件,包含了百度云API的调用函数 # 加载视频文件 video = VideoFileClip("video.mp4") # 提取音频 audio = video.audio # 将音频换为文字 result = baidu_api.audio_to_text(audio) # 处理文字结果 processed_text = text_processing(result) # 输出字幕文件 output_subtitles(processed_text) ``` 请注意,在实际操作,你需要有一个有效的语音文本的API,并将其与Python代码结合使用,以完成音频到文字的换。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值