基于Qt的python GUI程序:调用百度语音合成api文字转语音

更多语音播报资料,阅读:为自己的软件添加语音提示功能

百度语音合成aip

1.安装百度aip

本文python使用anacond安装,首先打开anaconda prompt安装baidu-api

pip install  baidu-aip

如果没有安装aip,导入模块是报错:nomodule name aip

2.登录百度云

进入【产品】--》【人工智能】--》【语音合成】--》【立即使用】--》创建应用

3.代码说明

语音合成代码:

 result = client.synthesis(self.textEdit.toPlainText(),'zh',3,{
        'vol': 5,
        'per': voice, # 设置声音类型
    })

synthesis参数说明:
'''
固定值zh。语言选择,目前只有中英文混合模式,填写固定值zh
客户端类型选择,web端填写固定值1
spd语速,取值0-15,默认为5中语速(选填)
pit音调,取值0-15,默认为5中语调(选填)
vol音量,取值0-15,默认为5中音量(选填)
per发音人选择, 0为普通女声,1为普通男生,3为情感合成-度逍遥,4为情感合成-度丫丫,默认为普通女声

基于pyqt编写python GUI程序

1.anaconda下配置QtDesigner和PyUic

2.创建对话框并显示

a.创建speechToTxt.ui并生成speechToTxt.py文件;b.新建test.py显示speechToTxt对话框,test.py代码如下:

#! /usr/bin/env python
# -*- coding: utf-8 -*-
import sys
from PyQt5.QtWidgets import QApplication, QDialog
import speechToText
# module dialog_test_ui.py
from PyQt5.QtCore import *  # for Qt.ApplicationModal

if __name__ == '__main__':
    app = QApplication(sys.argv)

    # 因为使用Qt Designer设计的ui是默认继承自object类,不提供show()显示方法,
    # 所以我们需要生成一个QDialog对象来重载我们设计的Ui_Dialog类,从而达到显示效果。
    MainDialog = QDialog()  # 创建一个主窗体(必须要有一个主窗体)
    myDialog = speechToText.Ui_Dialog()  # 创建对话框
    myDialog.setupUi(MainDialog)  # 将对话框依附于主窗体
    # 设置窗口的属性为ApplicationModal模态,用户只有关闭弹窗后,才能关闭主界面
    # MainDialog.setWindowModality(Qt.ApplicationModal)
    MainDialog.show()

    sys.exit(app.exec_())

上面实现参考PyQt5显示对话框Dialog 代码实例完成.

运行效果:

向文本框中添加文字

单选按钮设置默认

语音合成按钮关联函数

参考文献:

https://blog.csdn.net/weixin_40943549/article/details/82835548

使用百度API实现文本转语音——python

https://blog.csdn.net/weixin_38241876/article/details/84949534

百度云实现语音识别及语音合成

https://www.cnblogs.com/rrxc/p/4462890.html

https://www.jianshu.com/p/5b063c5745d0

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
调用模型进行语音识别,可以使用Python编程语言结合PyTorch深度学习框架来实现,同时还可以使用GUI界面来提供用户友好的交互体验。 首先,为了进行语音识别,需要准备一个已经训练好的深度学习模型。使用PyTorch可以方便地加载已有的模型,例如一个语音识别的模型。 接下来,可以使用PyTorch提供的语音处理工具,例如torchaudio库来读取和处理音频数据。这些工具可以对音频数据进行预处理,例如标准化、降噪、对数刻度等,以提高模型的准确率。 在GUI界面方面,可以使用PythonGUI库,例如Tkinter、PyQt等来设计一个用户友好的界面。这个界面可以包含录音功能,允许用户输入音频数据,并提供开始识别按钮。 当用户点击开始识别按钮时,界面会调用模型进行语音识别。首先,界面将录制的音频数据发送到模型进行预测。模型会将音频转换为特征表示,例如时频图或MFCC,然后使用训练好的权重进行预测。最后,模型会输出识别结果,例如识别的文字或标签。 在GUI界面上,可以显示识别结果,例如将文字结果显示在标签或文本框中。还可以添加其他功能,例如保存识别结果、调整模型参数等。 总之,通过结合Python、PyTorch以及GUI界面,可以实现一个语音识别系统。用户可以通过GUI界面录制音频数据,并将其发送到模型进行识别。界面会显示识别结果,以提供良好的用户体验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

haimianjie2012

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值