声纹识别(识别说话人声音)

1.环境

2.完整代码

sv_pipeline = pipeline(
    task='speaker-verification',
    model='damo/speech_campplus_sv_zh-cn_16k-common',
    model_revision='v1.0.0'
)
speaker1_a_wav = 'VoiceprintRecognition/contrast-208a045a-ed31-4e07-8706-4c2bbd72a428.wav'
speaker1_b_wav = 'VoiceprintRecognition/contrast-25200d79-3e09-4298-9605-2c5d8b45abfe.wav'
speaker2_a_wav = 'damo/speech_campplus_sv_zh-cn_16k-common/examples/speaker2_a_cn_16k.wav'
# 相同说话人语音
result = sv_pipeline([speaker1_a_wav, speaker1_b_wav])
print("相同说话人语音")
print(result)
# 不同说话人语音
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav])
print("不同说话人语音")
print(result)
# 可以自定义得分阈值来进行识别,阈值越高,判定为同一人的条件越严格
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav], thr=0.31)
print("可以自定义得分阈值来进行识别,阈值越高,判定为同一人的条件越严格")
print(result)
# 可以传入output_emb参数,输出结果中就会包含提取到的说话人embedding
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav], output_emb=True)
print("可以传入output_emb参数,输出结果中就会包含提取到的说话人embedding")
print(result['embs'], result['outputs'])
# 可以传入save_dir参数,提取到的说话人embedding会存储在save_dir目录中
result = sv_pipeline([speaker1_a_wav, speaker2_a_wav], save_dir='savePath/')

3.效果

在这里插入图片描述
在这里插入图片描述

4. 问题

1.模型去社区下就行,或者私聊找我拿

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值