Linux系统上部署Whisper。

Whisper是一个开源的自动语音识别(ASR)模型,最初由OpenAI发布。要在本地Linux系统上部署Whisper,你可以按照以下步骤进行:

1. 创建虚拟环境

为了避免依赖冲突,建议在虚拟环境中进行部署。创建并激活一个新的虚拟环境:
如果不知道 conda如何安装
找作者这篇文章 最后面有安装conda教程

https://blog.csdn.net/yhl18931306541/article/details/129141060?spm=1001.2014.3001.5501

打开上方网址,划到最后位置,按照作者的一步一步来即可
conda create --name whisper python=3.11.7
conda activate whisper
进入到虚拟环境执行下方命令

在这里插入图片描述

2. 安装Whisper及其依赖项

使用pip安装Whisper及其依赖项:
pip install git+https://github.com/openai/whisper.git
pip install torch
pip install faster-whisper

3. 测试安装

你可以运行以下命令来测试Whisper是否安装成功:
python -m whisper

如果看到帮助信息,说明安装成功。

4. 使用Whisper

Whisper可以通过命令行或Python脚本来使用。以下是一个基本的使用示例:
命令行使用:
whisper audio_file.mp3 --model large-v2
将 audio_file.mp3 换成 你准备识别的语音,回车等待即可
python脚本使用:
# 导入模块
from faster_whisper import WhisperModel

# 模型路径, 
# # model_path = WhisperModel("large-v3")
# 注释:下载路径需要使用代理出外网下载,将下载好的模型上传到linux服务中
model_path = "/root/.cache/huggingface/hub/models--Systran--faster-whisper-large-v3/snapshots/edaa852ec7e145841d8ffdb056a99866b5f0a478"

# 初始化 WhisperModel
model = WhisperModel(
   model_size_or_path=model_path,  # 必须提供模型路径或模型大小
   device="cuda",           	# 使用 GPU    
   device_index=1,    			# 指定第二个 GPU(从 0 开始计数)
    compute_type="float32"   # 使用 float32 精度计算
)
# 进行语音识别
segments, info = model.transcribe("/opt/189****2345.wav", beam_size=5, language="zh", condition_on_previous_text=False)
# 注释 189****2345.wav 换成你准备识别的语音  .mp3文件可以
# 打印识别结果
for segment in segments:
 print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)
)
输入如下即可

在这里插入图片描述

如果报错:

Could not load library libcudnn_ops_infer.so.8. Error: libcudnn_ops_infer.so.8: cannot open shared object file: No such file or directory
已放弃 (核心已转储)

处理:

find / -name 'libcudnn_ops_infer.so.8'
虚拟用户目录下
whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/libcudnn_ops_infer.so.8
cp -rp /data/anaconda3/envs/whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/*.8 /usr/lib/
cp -rp /data/anaconda3/envs/whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/*.8 /usr/lib64/
继续运行即可

这些步骤应该可以帮助你在本地Linux系统上成功部署并使用Whisper。

注:下载模型时,需要到外网去下载,使用科学上网方式。

如果本身服务器出不了外网,则将模型下载到本地,然后打包上传到服务器。

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Whisper 是 Ethereum 的一种存储模块,可以用来在区块链上发送点对点的消息。它可以在本地部署在 Geth 上,你需要先安装 Geth。 安装完 Geth 之后,你需要在启动 Geth 时使用 `--shh` 参数来启用 Whisper。 示例: ``` geth --shh ``` 你还可以指定 Whisper 的相关配置,如使用的端口等。 示例: ``` geth --shh --shh.port "30311" ``` 在 Geth 启动后,你就可以通过 Geth 控制台来使用 Whisper。如需使用 whisper API 你需要在合约上或通过web3 provider 调用。 有关 Whisper 部署和使用的更多信息,可以参考官方文档: https://github.com/ethereum/wiki/wiki/Whisper ### 回答2: "Whisper"是一个信息传输和存储协议,可以用于在去中心化网络中进行点对点通信。本地部署指的是将这个协议部署在本地环境中,而不是在云端平台或任何其他远程服务器上运行。 将Whisper协议本地部署的优势在于: 1. 隐私和安全:由于信息传输和存储发生在本地环境中,用户更有信心和控制自己的数据。本地部署可以减少第三方获取用户通信内容和元数据的风险。 2. 性能和延迟:由于Whisper协议本地运行,它不需要经过远程服务器的中转和处理,从而减少了通信的延迟。这对于需要实时交流的应用非常重要。 3. 定制和灵活性:本地部署意味着可以根据特定需求进行自定义配置和调整。这样,用户可以根据自己的偏好和需求对Whisper进行更灵活的配置。 然而,Whisper本地部署也存在一些挑战和限制: 1. 需要自行管理和维护:本地部署意味着需要用户自行负责Whisper协议的安装、配置和维护。这可能需要一些技术知识和资源来确保系统的正常运行。 2. 可能存在硬件要求:有些本地部署可能需要特定的硬件设备或网络设置来确保Whisper的顺利运行。这可能限制了某些用户或组织的选择。 总体而言,Whisper的本地部署为需要更大控制权和定制能力的用户提供了一个可选方案。通过本地部署,用户可以更好地保护隐私、提高性能,并根据自己的需求进行灵活配置。然而,也需要考虑到管理和维护的挑战,以及可能存在的硬件限制。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值