语音合成
文章平均质量分 86
mandagod
这个作者很懒,什么都没留下…
展开
-
TensorFlow Lite (TFLite)的TTS模型集
GitHub 链接:https://github.com/tulasiram58827/TTS_TFLiteThis repository provides a collection of widely popular text-to-speech (TTS) models in TensorFlow Lite (TFLite). These models primarily come from two repositories -TTSandTensorFlowTTS. We p...转载 2021-03-10 15:22:24 · 1039 阅读 · 0 评论 -
《语音信号处理》整理
reference《spoken language processing》1 语音基础 名词解释 pitch 音调 以HZ为单位基频又称音高能量又称音强说话的声音(声带震动)和其他声音相比,有独特的时域和频域模式。声带的震动产生基频(fundamental frequency),口腔共振(the pharyngeal and oral resonance cav...转载 2019-06-17 18:05:34 · 18742 阅读 · 0 评论 -
语音合成TTS | AI产品经理需要了解的AI技术概念
TTS(Text-To-Speech,语音合成),目前是一个“小而美”的AI领域,但我个人觉得非常有意思,感觉TTS在未来会被行业真正重视起来,并且会出现做得不错的创业公司。本文,是我收集了很多线上/线下的相关信息后,提炼出的AI产品经理“最必要”了解的TTS技术知识和行业现状(多了没必要,少了又不足以入门、准备面试或工作实战);不仅帮大家节省了时间,更是过滤了很多无用信息和过于技术的内容。...转载 2019-06-12 10:26:57 · 1071 阅读 · 0 评论 -
机器学习随机记录
https://code.fb.com/ai-research/wav2letter/, state of the art end2end ASRneon优化https://www.jianshu.com/p/16d60ac56249https://blog.csdn.net/App_12062011/article/details/50462351https://www.jian...转载 2019-07-12 21:31:33 · 139 阅读 · 0 评论 -
中文分词常见方法
中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块。不同于英文的是,中文句子中没有词的界限,因此在进行中文自然语言处理时,通常需要先进行分词,分词效果将直接影响词性、句法树等模块的效果。当然分词只是一个工具,场景不同,要求也不同。在人机自然语言交互中,成熟的中文分词算法能够达到更好的自然语言处理效果,帮助计算机理解复杂的中文语言。竹间智能在构建中文自然语言对话系统时,结合...转载 2019-07-24 10:25:33 · 16590 阅读 · 0 评论 -
基于词库的双向最大匹配算法
基于词库的双向最大匹配算法本文介绍了基于词库的双向最大匹配算法。该算法实现简单,分词效果依赖于词库。在词库相当的情况下,分词效果不错。某些情况下甚至强于基于隐马尔科夫模型的智能分词。【双向最大匹配算法】从名字上来看(顾名思义),就是以最大匹配为原则、以双向的切分为方法进行汉子切分。本文所举得所有例子均是在词库足够完整的情况下进行的。什么叫以最大匹配为原则?...转载 2019-07-24 10:38:54 · 1774 阅读 · 0 评论 -
中文分词实现——双向最大匹配
关于中文分词的一些基本介绍,可以看这篇博客《中文分词方法总结》。这里就不再进行详细介绍了。双向最大匹配方法双向最大匹配方法是一种基于词典的分词方法。基于词典的分词方法是按照一定策略将待分析的汉字串与一个“大机器词典”中的词条进行匹配,若在词典中找到某个字符串,则匹配成功。按照扫描方向的不同:正向匹配和逆向匹配按照长度的不同:最大匹配和最小匹配正向最大匹配思想FMM1.从左向右...转载 2019-07-24 10:56:44 · 1294 阅读 · 1 评论 -
列举:中文分词算法你知道几种?
列举:中文分词算法你知道几种?摘要:看似普通的一句话,甚至几个词,在机器眼里都要经过好几道“程序”。这个过程主要靠中文分词算法,这个算法分为三大类:机械分词算法、基于n元语法的分词算法、基于隐马尔可夫模型的分词算法,本文将为大家重点介绍来源:数据猿 作者:江永青 原文链接:http://www.datayuan.cn/article/4671.htm前言中文分词算法是...转载 2019-07-24 11:40:19 · 2772 阅读 · 0 评论 -
python实现中文分词FMM算法实例
本文实例讲述了python实现中文分词FMM算法。分享给大家供大家参考。具体分析如下:FMM算法的最简单思想是使用贪心算法向前找n个,如果这n个组成的词在词典中出现,就ok,如果没有出现,那么找n-1个...然后继续下去。假如n个词在词典中出现,那么从n+1位置继续找下去,直到句子结束。import re def PreProcess(sentence,edcode="utf-8")...转载 2019-07-23 11:17:25 · 623 阅读 · 0 评论