首先贴出html中直接生成播报文字的方法(直接播报是没办法生成文件的):
直接在js中定义以下2句即可播报语音
var msg = new SpeechSynthesisUtterance("您有新的订单,部品号:123456789,需求数量:123,部品号:123345532,需求数量:400,请及时对应!");
window.speechSynthesis.speak(msg);
SpeechSynthesis用于将指定文字合成为对应的语音.也包含一些配置项,指定如何去阅读(语言,音量,音调)等等。
实例对象属性
lang 获取并设置话语的语言
pitch 获取并设置话语的音调(值越大越尖锐,越低越低沉)
rate 获取并设置说话的速度(值越大语速越快,越小语速越慢)
text 获取并设置说话时的文本
voice 获取并设置说话的声音
volume 获取并设置说话的音量
SpeechSynthesis方法
speak() 将对应的实例添加到语音队列中
cancel() 删除队列中所有的语音.如果正在播放,则直接停止
pause() 暂停语音
resume() 恢复暂停的语音
getVoices 获取支持的语言数组. 注意:必须添加在voiceschanged事件中才能生效
实例对象方法
onstart – 语音合成开始时候的回调。
onpause – 语音合成暂停时候的回调。
onresume – 语音合成重新开始时候的回调。
onend – 语音合成结束时候的回调。
SpeechSynthesis.paused: 当 SpeechSynthesis 处于暂停状态时, Boolean 值返回 true 。
SpeechSynthesis.pending: 当语音播放队列到目前为止保持没有说完的语音时, Boolean值返回 true 。
SpeechSynthesis.speaking: 当语音谈话正在进行的时候,即使 SpeechSynthesis 处于暂停状态, Boolean 返回 true 。
SpeechSynthesis.onvoiceschanged: 当由 SpeechSynthesis.getVoices() 方法返回的SpeechSynthesisVoice 列表改变时触发。
html直接调用文本转语音播报有2个问题:
1. 我页面框架是分为两个部分,一个是页面导航top,剩下的是主体,我进入导航中的任何页面都只是变更主体的内容,并不是整个页面跳转,因此我定义的语音播报例如在A页面中,但我跳转到B页面时语音播报依旧不会停止
1. 没有重复播报功能,只能自己在js中写个循环进行设定播报次数,不过无论播报多少次点击暂停或者停止播报都是可以立即停止播报的,还是问题不大
其他推荐: 前端播放后端传的语音流_contenttype audio_璐瑶知码li的博客-CSDN博客
-----------------------------------------------------------------------以下则是生成文件的方法
一、pom.xml引入jar包依赖
<!-- https://mvnrepository.com/artifact/com.jacob/jacob 文字转语音 --> <dependency> <groupId>com.hynnet</groupId> <artifactId>jacob</artifactId> <version>1.18</version> </dependency>
二、把jacob-1.18-x64.dll文件复制到jdk安装位置的bin目录下。
https://files.cnblogs.com/files/w1441639547/jacob-1.18-x64.rar
三、测试运行。
package com.epson.thpwp;
import com.jacob.activeX.ActiveXComponent;
import com.jacob.com.Dispatch;
import com.jacob.com.Variant;
/**
* 文字转语音测试 jdk bin文件中需要导入jacob-1.17-M2-x64.dll
*
* @author
*/
public class test {
public static void textToSpeech(String text) {
System.out.println("开始");
ActiveXComponent ax = null;
try {
ax = new ActiveXComponent("Sapi.SpVoice");
// 运行时输出语音内容
Dispatch spVoice = ax.getObject();
// 音量 0-100
ax.setProperty("Volume", new Variant(100));
// 语音朗读速度 -10 到 +10
ax.setProperty("Rate", new Variant(-2));
// 执行朗读
Dispatch.call(spVoice, "Speak", new Variant(text));
// 下面是构建文件流把生成语音文件
ax = new ActiveXComponent("Sapi.SpFileStream");
Dispatch spFileStream = ax.getObject();
ax = new ActiveXComponent("Sapi.SpAudioFormat");
Dispatch spAudioFormat = ax.getObject();
// 设置音频流格式
Dispatch.put(spAudioFormat, "Type", new Variant(22));
// 设置文件输出流格式
Dispatch.putRef(spFileStream, "Format", spAudioFormat);
// 调用输出 文件流打开方法,创建一个.wav文件
Dispatch.call(spFileStream, "Open", new Variant("./text.wav"), new Variant(3), new Variant(true));
// 设置声音对象的音频输出流为输出文件对象
Dispatch.putRef(spVoice, "AudioOutputStream", spFileStream);
// 设置音量 0到100
Dispatch.put(spVoice, "Volume", new Variant(100));
// 设置朗读速度 -10 到 +10
Dispatch.put(spVoice, "Rate", new Variant(1));
// 开始朗读
Dispatch.call(spVoice, "Speak", new Variant(text));
// 关闭输出文件
Dispatch.call(spFileStream, "Close");
Dispatch.putRef(spVoice, "AudioOutputStream", null);
spAudioFormat.safeRelease();
spFileStream.safeRelease();
spVoice.safeRelease();
ax.safeRelease();
System.out.println("结束");
} catch (Exception e) {
e.printStackTrace();
}
}
}