Whisper 是什么?
“Whisper” 是一个由OpenAI开发的开源深度学习模型,专门用于语音识别任务。这个模型能够将语音转换成文本,支持多种语言,并且在处理不同的口音、环境噪音以及跨语言的语音识别方面表现出色。Whisper模型的目标是提供一个高效、准确的工具,以支持自动字幕生成、会议记录、语音命令解析等应用场景。
llama.cpp 是什么?
llama.cpp的主要目标是在本地和云中的各种硬件上,以最小的设置和最先进的性能实现LLM推理。
- 无任何依赖关系的纯C/C++实现
- 苹果硅是一流的公民-通过ARM NEON、Accelerate和Metal框架进行优化
- 支持x86架构的AVX、AVX2和AVX512
- 1.5位、2位、3位、4位、5位、6位和8位整数量化,用于更快的推理和减少内存使用
- 用于在NVIDIA GPU上运行LLM的自定义CUDA内核(通过HIP支持AMD GPU)
- Vulkan、SYCL和(部分)OpenCL后端支持
- CPU+GPU混合推理,部分加速大于VRAM总容量的模型
whisper cpp 是什么?
OpenAI的Whisper自动语音识别(ASR)模型的高性能推理:
- 无依赖关系的纯C/C++实现
- Apple Silicon一流公民-通过ARM NEON、Accelerate框架、Metal和Core ML进行优化
- 对x86体系结构的AVX内部支持
- 对POWER体系结构的VSX内部支持
- F16/