AI人工智能 语音识别

AI人工智能 构建语音识别器

语音识别或自动语音识别(ASR)是 AI 机器人等 AI 项目的关注焦点。 没有 ASR,就不可能想象一个认知机器人与人进行交互。 但是,构建语音识别器并不容易。

开发语音识别系统的困难

开发高质量的语音识别系统确实是一个难题。 语音识别技术的困难可以广泛地表征为如下所讨论的许多维度 -

词汇大小

  • 词汇大小影响开发 ASR 的难易程度。考虑以下词汇量以便更好地理解。

例如,在一个语音菜单系统中,一个小词汇由 2 到 100 个单词组成
例如,在数据库检索任务中,中等大小的词汇包含几个 100 到 1000 个单词
一个大的词汇由几万个单词组成,如在一般的听写任务中。

信道特性 - 信道质量也是一个重要的维度。 例如,人类语音包含全频率范围的高带宽,而电话语音包含频率范围有限的低带宽。 请注意,后者更难。
说话模式 - 轻松开发 ASR 还取决于说话模式,即语音是处于孤立词模式还是连接词模式,还是处于连续语音模式。 请注意,连续说话很难辨认。
口语风格 - 阅读说话可以采用正式风格,也可以采用自发风格和对话风格。 后者更难以识别。
扬声器依赖性 - 语音可以依赖扬声器,扬声器自适应或扬声器独立。 独立发言人是最难建立的。

噪音类型

  • 噪音是开发 ASR 时需要考虑的另一个因素。 信噪比可以在各种范围内,这取决于观察较少的声学环境与较多的背景噪声 -
如果信噪比大于30dB,则认为是高范围
如果信噪比在 30dB 到 10db 之间,则认为是中等信噪比
如果信噪比小于 10dB,则认为是低范围

麦克风特性 - 麦克风的质量可能很好,平均水平或低于平均水平。 此外,嘴和微型电话之间的距离可能会有所不同。 识别系统也应考虑这些因素。

AI人工智能 可视化音频信号 - 从文件读取并进行处理

记录 当必须从文件中读取音频信号时,首先使用麦克风录制

采样 用麦克风录音时,信号以数字形式存储。 但为了解决这个问题,机器需要使用离散数字形式。 因此,我们应该以某个频率进行采样,并将信号转换为离散数字形式。 选择高频采样意味着当人类听到信号时,他们会感觉它是一个连续的音频信号。

示例

以下示例显示了使用 Python 存储在文件中的逐步分析音频信号的方法。 这个音频信号的频率是 44,100HZ。

下面导入必要的软件包

import numpy as np
import matplotlib.pyplot as plt
from scipy.io import wavfile

现在,读取存储的音频文件。 它会返回两个值:采样频率和音频信号。 提供存储音频文件的路径,如下所示

frequency_sampling, audio_signal = wavfile.read("/Users/admin/audio_file.wav")

使用显示的命令显示音频信号的采样频率,信号的数据类型及其持续时间等参数

print('\nSignal shape:', audio_signal.shape)
print('Signal Datatype:', audio_signal.dtype)
print('Signal duration:', round(audio_signal.shape[0] / 
float(frequency_sampling), 2), 'seconds')

这一步涉及如下所示对信号进行标准化

audio_signal = audio_signal / np.power(2, 15)

在这一步中,从这个信号中提取出前 100 个值进行可视化。 为此目的使用以下命令

audio_signal = audio_signal [:100]
time_axis = 1000 * np.arange(0, len(signal), 1) / float(frequency_sampling)

现在,使用下面给出的命令可视化信号

plt.plot(time_axis, signal, color='blue')
plt.xlabel('Time (milliseconds)')
plt.ylabel('Amplitude')
plt.title('Input audio signal')
plt.show()

下面输出图形是上述音频信号提取的数据,如图所示

在这里插入图片描述

Signal shape: (132300,)
Signal Datatype: int16
Signal duration: 3.0 seconds

AI人工智能 表征音频信号:转换到频域

表征音频信号涉及将时域信号转换为频域,并通过以下方式理解其频率分量。 这是一个重要的步骤,因为它提供了关于信号的大量信息。 可以使用像傅立叶变换这样的数学工具来执行此转换。

示例

以下示例将逐步说明如何使用存储在文件中的 Python 来表征信号。 请注意,这里使用傅里叶变换数学工具将其转换为频域。

导入必要的软件包,如下所示

import numpy as np
import matplotlib.pyplot as plt
from scipy.io import wavfile

现在,读取存储的音频文件。 它会返回两个值:采样频率和音频信号。 提供存储音频文件的路径,如命令所示

frequency_sampling, audio_signal = wavfile.read("/Users/admin/sample.wav")

在这一步中,将使用下面给出的命令显示音频信号的采样频率,信号的数据类型和持续时间等参数

print('\nSignal shape:', audio_signal.shape)
print('Signal Datatype:', audio_signal.dtype)
print('Signal duration:', round(audio_signal.shape[0] / 
float(frequency_sampling), 2), 'seconds')

在这一步中,我们需要对信号进行标准化,如下面的命令所示

audio_signal = audio_signal / np.power(2, 15)

这一步涉及提取信号的长度和半长。使用以下命令 -

length_signal = len(audio_signal)
half_length = np.ceil((length_signal + 1) / 2.0).astype(np.int)

现在,需要应用数学工具来转换到频域。 这里使用傅里叶变换。

signal_frequency = np.fft.fft(audio_signal)

现在,进行频域信号的归一化并将其平方

signal_frequency = abs(signal_frequency[0:half_length]) / length_signal
signal_frequency **= 2

接下来,提取频率变换信号的长度和一半长度

len_fts = len(signal_frequency)

请注意,傅里叶变换信号必须针对奇偶情况进行调整

if length_signal % 2:
   signal_frequency[1:len_fts] *= 2
else:
   signal_frequency[1:len_fts-1] *= 2

现在,以分贝(dB)为单位提取功率

signal_power = 10 * np.log10(signal_frequency)

调整X轴的以kHz为单位的频率

x_axis = np.arange(0, len_half, 1) * (frequency_sampling / length_signal) / 1000.0

现在,将信号的特征可视化如下

plt.figure()
plt.plot(x_axis, signal_power, color='black')
plt.xlabel('Frequency (kHz)')
plt.ylabel('Signal power (dB)')
plt.show()

可以观察上面代码的输出图形,如下图所示

在这里插入图片描述

AI人工智能 生成单调音频信号

到目前为止你所看到的两个步骤对于了解信号很重要。 现在,如果要使用某些预定义参数生成音频信号,此步骤将很有用。 请注意,此步骤会将音频信号保存在输出文件中。

示例

在下面的例子中,我们将使用 Python 生成一个单调信号,它将被存储在一个文件中。需要采取以下步骤 -

导入必要的软件包

import numpy as np
import matplotlib.pyplot as plt
from scipy.io.wavfile import write

指定输出保存的文件

`output_file = 'audio_signal_generated.wa`v'

现在,指定选择的参数,如图所示

duration = 4 # in seconds
frequency_sampling = 44100 # in Hz
frequency_tone = 784
min_val = -4 * np.pi
max_val = 4 * np.pi

在这一步中,我们可以生成音频信号,如下代码所示

t = np.linspace(min_val, max_val, duration * frequency_sampling)
audio_signal = np.sin(2 * np.pi * tone_freq * t)

现在,将音频文件保存在输出文件中

write(output_file, frequency_sampling, signal_scaled)

如图所示,提取图形的前100个值

audio_signal = audio_signal[:100]
time_axis = 1000 * np.arange(0, len(signal), 1) / float(sampling_freq)

现在,将生成的音频信号可视化如下

plt.plot(time_axis, signal, color='blue')
plt.xlabel('Time in milliseconds')
plt.ylabel('Amplitude')
plt.title('Generated audio signal')
plt.show()

可以观察这里给出的图形

在这里插入图片描述

AI人工智能 语音特征提取

这是构建语音识别器的最重要步骤,因为在将语音信号转换为频域后,我们必须将其转换为可用的特征向量形式。 可以为此使用不同的特征提取技术,如 MFCC,PLP,PLP-RASTA 等。

示例

在以下示例中,我们将使用 MFCC 技术逐步使用 Python 从信号中提取特征。

导入必要的软件包,如下所示

import numpy as np
import matplotlib.pyplot as plt
from scipy.io import wavfile
from python_speech_features import mfcc, logfbank

现在,读取存储的音频文件。 它会返回两个值 - 采样频率和音频信号。 提供存储音频文件的路径。

frequency_sampling, audio_signal = wavfile.read("/Users/admin/audio_file.wav")

注意,在此首先抽取15000个样本进行分析。

audio_signal = audio_signal[:15000]

使用 MFCC 技术并执行以下命令来提取 MFCC 特征

features_mfcc = mfcc(audio_signal, frequency_sampling)
Python

现在,打印 MFCC 参数,如下所示

print('\nMFCC:\nNumber of windows =', features_mfcc.shape[0])
print('Length of each feature =', features_mfcc.shape[1])

使用下面给出的命令绘制并可视化 MFCC 特征

features_mfcc = features_mfcc.T
plt.matshow(features_mfcc)
plt.title('MFCC')

在这一步中,我们使用如下滤器组特征,提取过滤器组特征

filterbank_features = logfbank(audio_signal, frequency_sampling)

现在,打印过滤器组参数。

print('\nFilter bank:\nNumber of windows =', filterbank_features.shape[0])
print('Length of each feature =', filterbank_features.shape[1])

绘制并可视化过滤器组特征。

filterbank_features = filterbank_features.T
plt.matshow(filterbank_features)
plt.title('Filter bank')
plt.show()

根据上述步骤,您可以观察到以下输出:图1为 MFCC,图2为过滤器组。

在这里插入图片描述
在这里插入图片描述

AI人工智能 口语词的识别

语音识别意味着当人们说话时,机器就会理解它。 这里使用 Python 中的 Google Speech API 来实现它。 需要为此安装以下软件包

Pyaudio - 它可以通过使用 pip 安装 Pyaudio 命令进行安装

SpeechRecognition - 这个软件包可以通过使用 pip install SpeechRecognition 进行安装。
Google-Speech-API - 可以使用命令 pip install google-api-python-client 进行安装。

实例

观察下面的例子来理解口语的识别。如下所示导入必要的软件包

import speech_recognition as sr

创建一个对象,如下所示

recording = sr.Recognizer()

现在,Microphone()模块将把语音作为输入

with sr.Microphone() as source: recording.adjust_for_ambient_noise(source)
   print("Please Say something:")
   audio = recording.listen(source)

现在谷歌 API 会识别语音并提供输出。

try:
   print("You said: \n" + recording.recognize_google(audio))
except Exception as e:
   print(e)

可以看到下面的输出

Please Say Something:
You said:

例如,如果您说yiibai.com,那么系统会如下正确识别它 -

yiibai.com
  • 21
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

看山还是山,看水还是。

你的打赏是我最大鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值