纯前端实现语音文字互转

大厂技术  高级前端  Node进阶

点击上方 程序员成长指北,关注公众号
回复1,加入高级Node交流群

在现代互联网的发展中,语音技术正逐渐成为改变用户体验的重要一环。Web Speech API 的引入使得开发者能够在浏览器中轻松实现语音识别和语音合成功能,为用户带来更加直观和便捷的操作体验。本文将介绍 Web Speech API 的基本概念、功能特性以及如何利用它来构建创新的应用程序。

什么是 Web Speech API?

Web Speech API 是一组浏览器 API,允许开发者在 Web 应用程序中集成语音识别和语音合成功能。这些 API 的引入标志着浏览器开始支持本地端的语音交互能力,不仅改善了用户体验,还为开发者提供了更多创新的可能性。

主要组成部分

Web Speech API 包括两个核心部分:

  1. SpeechRecognition(语音识别)

  • 允许用户通过麦克风输入语音,然后将其转换为文本。

  • 可以检测语音的开始和结束,以便进行适当的处理和响应。

  • 提供了各种配置选项,如语言识别设置、连续识别等,以满足不同应用场景的需求。

SpeechSynthesis(语音合成)

  • 允许开发者将文本转换为语音输出。

  • 支持多种语音合成引擎和语音效果,可以根据需求选择合适的语音风格和语言。

  • 提供了控制音调、语速等参数的接口,以实现个性化的语音输出效果。

优势

  • 多语言支持: Web Speech API 支持多种语言,可0以通过设置 recognition.langutterance.lang 来切换不同的语言环境。例如,识别法语、西班牙语等。

  • 语音指令的识别: 不仅仅是简单的文本转换,可以实现对特定命令或短语的识别,如控制网页的导航、播放媒体等。这需要在识别的事件处理程序中进行语音指令的解析和响应。

  • 连续语音识别: 设置 recognition.continuous = true,使得语音识别能够持续监听用户的语音输入,而不是单次识别。

  • 实时反馈和动态调整: 根据识别的实时结果,可以实现实时反馈或动态调整应用程序的行为。例如,在用户说话时动态更新界面或提供即时建议。

如何使用 Web Speech API?

实现语音识别
属性
  • recognition.grammars 用于存储一组语法规则,可以通过 addFromString 方法添加语法规则。

  • recognition.lang 设置或获取语音识别的语言

  • recognition.interimResults 如果设置为 true,则在识别过程中会提供临时结果。如果为 false,则只提供最终结果

  • recognition.maxAlternatives 设置语音识别返回的替代结果的最大数量。默认值为 1,表示只返回最可能的结果

  • recognition.continuous 如果设置为 true,则识别会持续运行直到显式停止。如果为 false,识别会在单次语音输入后自动停止

  • recognition.onresult 当识别结果可用时触发的事件处理程序。事件对象的 results 属性包含识别结果

  • recognition.onaudiostart 当开始录制音频时触发的事件处理程序

  • recognition.onsoundstart 当检测到声音时触发的事件处理程序

  • recognition.onspeechstart 当检测到用户开始说话时触发的事件处理程序

  • recognition.onspeechend 当用户停止说话时触发的事件处理程序

  • recognition.onaudioend 当音频录制停止时触发的事件处理程序

  • recognition.onend 当语音识别结束时触发的事件处理程序

  • recognition.onerror 当语音识别发生错误时触发的事件处理程序。事件对象的 error 属性包含错误信息

  • recognition.onnomatch 当语音识别没有匹配到任何结果时触发的事件处理程序

  • recognition.onsoundend 当检测到的声音停止时触发的事件处理程序

事件
  • start() 启动语音识别

  • stop() 停止语音识别

  • abort() 终止语音识别,并且不会触发onend事件

通过以下简单的 JavaScript 代码片段,可以实现基本的语音识别功能:

const recognition = new webkitSpeechRecognition(); // 创建语音识别对象
recognition.lang = 'en-US'; // 设置识别语言为英语
recognition.onresult = function(event) {
  const transcript = event.results[0][0].transcript; // 获取识别结果文本
  console.log('识别结果:', transcript);
};
recognition.start(); // 开始识别
实现语音合成
属性
  • SpeechSynthesisUtterance.lang 获取并设置说话的语言

  • SpeechSynthesisUtterance.pitch 获取并设置说话的音调(值越大越尖锐,越小越低沉)

  • SpeechSynthesisUtterance.rate 获取并设置说话的速度(值越大越快)

  • SpeechSynthesisUtterance.text 获取并设置说话的文本

  • SpeechSynthesisUtterance.voice 获取并设置说话时的声音

  • SpeechSynthesisUtterance.volume 获取并设置说话的音量

事件
  • speak() 将对应的实例添加到语音队列中

  • cancel() 删除队列中所有的语音,如果正在播放,则直接停止

  • pause() 暂停语音

  • resume() 恢复暂停的语音

  • getVoices 获取支持的语言数组

使用 SpeechSynthesis API 实现文本转语音的功能,示例代码如下:

const utterance = new SpeechSynthesisUtterance('Hello, welcome to our website.');
utterance.lang = 'en-US'; // 设置语音合成的语言
window.speechSynthesis.speak(utterance); // 开始语音合成

SpeechGrammar

1. 什么是 SpeechGrammar

SpeechGrammar 对象用于指定一个语法规则,这些规则可以帮助语音识别引擎识别特定的语音输入。它常与 SpeechRecognition 对象结合使用。语法规则可以是简单的文本,也可以是复杂的正则表达式或者语法定义。

2. 如何使用 SpeechGrammar

要使用 SpeechGrammar,你需要创建一个 SpeechRecognition 对象,并为其添加一个或多个 SpeechGrammar 对象。以下是一个示例:

<!DOCTYPE html>
<html lang="en">
<head>
  <meta charset="UTF-8">
  <meta name="viewport" content="width=device-width, initial-scale=1.0">
  <title>Speech Grammar Example</title>
</head>
<body>
  <button id="startButton">Start Speech Recognition</button>
  <div id="output"></div>

  <script>
   // 确保浏览器支持 SpeechRecognition
const SpeechRecognition = window.SpeechRecognition || window.webkitSpeechRecognition;

if (!SpeechRecognition) {
  console.error("SpeechRecognition not supported");
} else {
  // 创建 SpeechRecognition 实例
  const recognition = new SpeechRecognition();

  // 定义语法规则
  const grammar = '#JSGF V1.0; grammar colors; public <color> = red | green | blue | yellow ;';

  // 创建 webkitSpeechGrammarList 实例
  const speechGrammarList = new webkitSpeechGrammarList();
  speechGrammarList.addFromString(grammar, 1);  // 1 是语法的优先级

  // 将语法列表应用到 SpeechRecognition 实例
  recognition.grammars = speechGrammarList;

  // 配置识别选项
  recognition.lang = 'en-US';  // 设置语言
  recognition.interimResults = false;  // 只返回最终结果
  recognition.maxAlternatives = 1;  // 只返回一个替代结果

  // 开始识别
  recognition.start();

  recognition.onresult = (event) => {
    const result = event.results[0][0].transcript;
    console.log('识别结果:', result);
  };

  recognition.onerror = (event) => {
    console.error('识别错误:', event.error);
  };
}

  </script>
</body>
</html>

通过合理使用 SpeechGrammarSpeechRecognition,你可以创建更精确的语音识别应用,提升用户体验。

实际应用场景包括但不限于:

  • 智能助手和语音搜索: 实现类似于 Siri、Google Assistant 等智能助手的语音控制和信息获取功能。

  • 无障碍和辅助技术: 支持视觉障碍用户的语音导航、文本转语音等辅助功能。

  • 教育和培训: 提供基于语音的学习和培训工具,如语音答题、学习笔记转录等。

  • 娱乐和游戏: 实现语音驱动的游戏操作和交互体验,如语音控制角色移动、发声识别等。

总结

Web Speech API 的推出不仅仅是技术进步的体现,更是对互联网应用程序用户体验提升的重大贡献。通过使用这些功能强大的 API,开发者可以为他们的应用程序添加创新的语音交互功能,从而吸引更多用户并提升用户满意度。无论是构建下一代互动游戏、个性化的助手应用,还是革新教育和商业应用,Web Speech API 都将为您的创意提供强大的支持。

探索和利用 Web Speech API,让我们共同打造一个更智能、更直观的互联网世界!

原文链接:https://juejin.cn/post/7397015953453875240

Node 社群



我组建了一个氛围特别好的 Node.js 社群,里面有很多 Node.js小伙伴,如果你对Node.js学习感兴趣的话(后续有计划也可以),我们可以一起进行Node.js相关的交流、学习、共建。下方加 考拉 好友回复「Node」即可。

   “分享、点赞、在看” 支持一波👍
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GeoPandas是一个开源的Python库,旨在简化地理空间数据的处理和分析。它结合了Pandas和Shapely的能力,为Python用户提供了一个强大而灵活的工具来处理地理空间数据。以下是关于GeoPandas的详细介绍: 一、GeoPandas的基本概念 1. 定义 GeoPandas是建立在Pandas和Shapely之上的一个Python库,用于处理和分析地理空间数据。 它扩展了Pandas的DataFrame和Series数据结构,允许在其中存储和操作地理空间几何图形。 2. 核心数据结构 GeoDataFrame:GeoPandas的核心数据结构,是Pandas DataFrame的扩展。它包含一个或多个列,其中至少一列是几何列(geometry column),用于存储地理空间几何图形(如点、线、多边形等)。 GeoSeries:GeoPandas中的另一个重要数据结构,类似于Pandas的Series,但用于存储几何图形序列。 二、GeoPandas的功能特性 1. 读取和写入多种地理空间数据格式 GeoPandas支持读取和写入多种常见的地理空间数据格式,包括Shapefile、GeoJSON、PostGIS、KML等。这使得用户可以轻松地从各种数据源中加载地理空间数据,并将处理后的数据保存为所需的格式。 2. 地理空间几何图形的创建、编辑和分析 GeoPandas允许用户创建、编辑和分析地理空间几何图形,包括点、线、多边形等。它提供了丰富的空间操作函数,如缓冲区分析、交集、并集、差集等,使得用户可以方便地进行地理空间数据分析。 3. 数据可视化 GeoPandas内置了数据可视化功能,可以绘制地理空间数据的地图。用户可以使用matplotlib等库来进一步定制地图的样式和布局。 4. 空间连接和空间索引 GeoPandas支持空间连接操作,可以将两个GeoDataFrame按照空间关系(如相交、包含等)进行连接。此外,它还支持空间索引,可以提高地理空间数据查询的效率。
SQLAlchemy 是一个 SQL 工具包和对象关系映射(ORM)库,用于 Python 编程语言。它提供了一个高级的 SQL 工具和对象关系映射工具,允许开发者以 Python 类和对象的形式操作数据库,而无需编写大量的 SQL 语句。SQLAlchemy 建立在 DBAPI 之上,支持多种数据库后端,如 SQLite, MySQL, PostgreSQL 等。 SQLAlchemy 的核心功能: 对象关系映射(ORM): SQLAlchemy 允许开发者使用 Python 类来表示数据库表,使用类的实例表示表中的行。 开发者可以定义类之间的关系(如一对多、多对多),SQLAlchemy 会自动处理这些关系在数据库中的映射。 通过 ORM,开发者可以像操作 Python 对象一样操作数据库,这大大简化了数据库操作的复杂性。 表达式语言: SQLAlchemy 提供了一个丰富的 SQL 表达式语言,允许开发者以 Python 表达式的方式编写复杂的 SQL 查询。 表达式语言提供了对 SQL 语句的灵活控制,同时保持了代码的可读性和可维护性。 数据库引擎和连接池: SQLAlchemy 支持多种数据库后端,并且为每种后端提供了对应的数据库引擎。 它还提供了连接池管理功能,以优化数据库连接的创建、使用和释放。 会话管理: SQLAlchemy 使用会话(Session)来管理对象的持久化状态。 会话提供了一个工作单元(unit of work)和身份映射(identity map)的概念,使得对象的状态管理和查询更加高效。 事件系统: SQLAlchemy 提供了一个事件系统,允许开发者在 ORM 的各个生命周期阶段插入自定义的钩子函数。 这使得开发者可以在对象加载、修改、删除等操作时执行额外的逻辑。
要在前端Vue中实现文字语音真人发声,可以使用"speak-tts"库来实现。以下是一种实现方法: 1. 首先,在Vue文件中引入"speak-tts"库。可以在需要语音播报的Vue文件中使用以下代码引入库: 2. 在Vue文件的数据区域添加一个speech属性,用于初始化语音播报的参数,如语言设置等。可以使用以下代码添加speech属性: 3. 在Vue文件的mounted生命周期中调用speechInit()方法,用于初始化语音播报。可以使用以下代码在mounted生命周期中调用speechInit()方法: 4. 在Vue文件的methods中添加speak()方法,用于触发文字语音真人发声。可以使用以下代码添加speak()方法: 5. 在Vue文件的template模板中添加一个按钮,用于触发语音播报。可以使用以下代码添加一个点击按钮: 这样,当点击按钮时,就会触发speak()方法,实现文字语音真人发声。 完整的代码如下所示: ```html <template> <div class="about"> <button @click="speak">语音播报</button> </div> </template> <script> import Speech from 'speak-tts' export default { data() { return { speech: null } }, mounted() { this.speechInit(); }, methods: { speechInit() { this.speech = new Speech(); this.speech.setLanguage('zh-CN'); this.speech.init().then(() => { console.log('语音播报初始化完成') }) }, speak() { this.speech.speak({text: "欢迎关注小编"}).then(() => { console.log("播报完成") }) } } } </script> ``` 通过以上步骤,在前端Vue中就可以实现文字语音真人发声了。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Vue实现文字语音语音播报](https://blog.csdn.net/weixin_40502718/article/details/128469257)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值