wav2lip算法TypeError: mel() takes 0 positional arguments but 2 positional arguments

第一,报错源于librosa版本升级了,毕竟wav2lip上一次github更新已经过去好多年了。

第二,解决方法:不需要降版本,只需要去掉后面几个参数,修改如下:

librosa.filters.mel(sr=float(hp.sample_rate), n_fft=hp.n_fft)

第三,如果你选择降版本,可以降到0.7.1,并保持传参如下:

librosa.filters.mel(hp.sample_rate, hp.n_fft, 
                    n_mels=hp.num_mels,fmin=hp.fmin, fmax=hp.fmax)

问题解决的请点赞!

补充:

可能你会跟我一样遇到 :

urllib.error.URLError: urlopen error [SSL: CERTIFICATE_VERIFY_FAILED]

SSL证书过期,验证错误之类,解决方法:

在 inference.py 开头加入以下内容:定义ssl全局取消证书验证

import ssl

ssl._create_default_https_context = ssl._create_unverified_context

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
# -*- coding: utf-8 -*- import numpy as np import librosa import random def extract_power(y, sr, size=3): """ extract log mel spectrogram feature :param y: the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: log-mel spectrogram feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y)) y = y * normalization_factor # random crop start = random.randint(0, len(y) - size * sr) y = y[start: start + size * sr] # extract log mel spectrogram ##### powerspec = np.abs(librosa.stft(y,n_fft=128, hop_length=1024)) ** 2 #logmelspec = librosa.power_to_db(melspectrogram) return powerspec def extract_logmel(y, sr, size=3): """ extract log mel spectrogram feature :param y: the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: log-mel spectrogram feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y)) y = y * normalization_factor # random crop start = random.randint(0, len(y) - size * sr) y = y[start: start + size * sr] # extract log mel spectrogram ##### melspectrogram = librosa.feature.melspectrogram(y=y, sr=sr, n_fft=2048, hop_length=1024, n_mels=90) logmelspec = librosa.power_to_db(melspectrogram) return logmelspec def extract_mfcc(y, sr, size=3): """ extract MFCC feature :param y: np.ndarray [shape=(n,)], real-valued the input signal (audio time series) :param sr: sample rate of 'y' :param size: the length (seconds) of random crop from original audio, default as 3 seconds :return: MFCC feature """ # normalization y = y.astype(np.float32) normalization_factor = 1 / np.max(np.abs(y))
wav2lip codeformer是一种音频到视频的合成技术。它结合了wav2lip模型和codeformer模型的优势。 首先,wav2lip模型是一个用于语音到唇形视频合成的神经网络模型。它采用一段音频作为输入,并生成与音频内容相对应的唇形视频。这个模型能够很好地捕捉到语音的特征,如语速、语调、情感等,并将这些特征转化为对应的唇形动画。 而codeformer模型是一种用于文本到视频合成的神经网络模型。它将文本作为输入,并生成对应的视频内容。这个模型能够理解文本的语义、逻辑和情感,并将其转化为视觉效果。 wav2lip codeformer则将这两个模型结合起来,实现了从音频到视频的合成过程。它首先使用wav2lip模型将音频转化为唇形视频,然后将这个视频作为输入传递给codeformer模型。codeformer模型根据视频中唇形的动画和音频的内容,生成一个更加精细的、符合语义和逻辑的视频。 wav2lip codeformer在很多应用场景中都能发挥重要作用。比如,在电影制作中,可以使用这个技术为人物角色添加对话或修复语音与唇形不对应的问题。此外,在虚拟现实和增强现实领域,这个技术也能用于语音合成和人机交互,使得虚拟角色能够更加自然地表现出唇形动画。 总之,wav2lip codeformer是一种能够实现音频到视频合成的技术,结合了wav2lip模型和codeformer模型的优点,具备广泛的应用前景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值