PocketSphinx语音识别系统语言模型的训练和声学模型的改进


PocketSphinx语音识别系统语言模型的训练和声学模型的改进

zouxy09@qq.com

       关于语音识别的基础知识和sphinx的知识,具体可以参考我的另外两篇博文:

语音识别的基础知识与CMUsphinx介绍:

http://blog.csdn.net/zouxy09/article/details/7941585

PocketSphinx语音识别系统的编译、安装和使用:

http://blog.csdn.net/zouxy09/article/details/7942784

下面的工作都是基于上面两篇博文往下做的,所以最好先了解下前面的情况。

 

下面的过程参考CMU sphinxwiki

http://cmusphinx.sourceforge.net/wiki/

 

一、训练语言模型

       词与词之间存在着合乎句法与否的约束,语言模型就是用来表示这些约束的,它可以提供字与字之间的上下文信息和语义信息。在pocketsphinx语音识别系统时,采用了N-gram模型,即对训练音频文件所对应的文本文件进行统计,提取不同字词之间先后发生的统计关系。

       如果你的语言模型较小(例如小的语音指令集或者任务),而且是英文的,那就可以直接上CMU提供的网络服务器上面训练,如果较大的话,一般使用CMUclmtk语言模型工具来训练。下面分两种情况来介绍:

 

1.1、利用在线工具建立语言模型

1)创建一个语料库:

语料库实际上就是一些文本的集合,包含了你需要识别的语音的文字的一些集合,例如句子啊,词啊等等。

#vi corpus.txt

输入如下内容:

stop

forward

backward

turn right

turn left

保存退出

2)利用在线工具LMTool建立语言模型:

       进入网址:http://www.speech.cs.cmu.edu/tools/lmtool.html

点击Browse按钮,选择之前创建的corpus.txt,最后点击COMPILE KNOWLEDGE BASE。这样就会生成字典文件* .dic 和语言模型文件 *.lm,例如:

生成TAR2916.tar.gz

tar xzf TAR2916.tar.gz

2916.corpus 2916.lm 2916.sent.arpabo 2916.vocab

2916.dic 2916.sent 2916.token

真正有用的是.dic.lm的文件

3)测试结果:

pocketsphinx_continuous解码器用-lm选项来指定要加载的语言模型,-dict来指定要加载的字典。

#pocketsphinx_continuous -lm 2916.lm -dict 2916.dic

INFO: ngram_search_fwdflat.c(295): Utterance vocabulary contains 1 words

INFO: ngram_search_fwdflat.c(912): 97 words recognized (2/fr)

INFO: ngram_search_fwdflat.c(914): 2342 senones evaluated (38/fr)

INFO: ngram_search_fwdflat.c(916): 1011 channels searched (16/fr)

INFO: ngram_search_fwdflat.c(918): 167 words searched (2/fr)

INFO: ngram_search_fwdflat.c(920): 47 word transitions (0/fr)

WARNING: "ngram_search.c", line 1087: </s> not found in last frame, using <sil> instead

INFO: ngram_search.c(1137): lattice start node <s>.0 end node <sil>.56

INFO: ps_lattice.c(1228): Normalizer P(O) = alpha(<sil>:56:60) = -341653

INFO: ps_lattice.c(1266): Joint P(O,S) = -341653 P(S|O) = 0

000000000: STOP (-6531224)

READY....

Listening...

 

1.2、训练大文本数据的语言模型

        我们通过语言模型训练工具CMUCLMTK统计大量文本数据得到以单个词建立的N-Gram模型。

语言模型训练工具的说明见:

http://www.speech.cs.cmu.edu/SLM/toolkit_documentation.html

具体的步骤如下:(得先安装语言模型训练工具CMUCLMTK,安装过程在上一博文中)

1)准备训练的文本,也就是语料库:

        这里只是举一个例子,所以语料库也不大,而一般的语料库都是由大文本来组成的,里面就是有一些我们的日常用语或者报纸啊,书啊等等所出现过的句子。文本数据越大,训练得到的语言模型就越好。

#vi weather.txt

.txt中输入如下内容,记住结尾不可留“\n(实验证明了这一点)。每个utterances <s> </s>来分隔

<s> 天气 </s>

<s> 有雨 </s>

<s> 晴朗 </s>

<s> 多云 </s>

<s> 雷电 </s>

wq 保存退出

2)产生词汇表vocabulary文件:

# text2wfreq < weather.txt | wfreq2vocab > weather.tmp.vocab

命令text2wfreq统计文本文件中每个词出现的次数,得到一个后缀为wfreq的文件,内容示例为:

1334

1334

</s> 3680

即表示词二、九和</s>在训练文本中出现的次数依次为133413343680

命令wfreq2vocab统计文本文件中含有多少个词,即有哪些词。如数字识别中包含10个数字和两个静音,故共有12个词,按照拼音顺序依次是:</s><s>、八、二、九、零、六、七、三、四、五、一。

3)生成 arpa格式的语言模型:

# text2idngram -vocab weather.vocab -idngram weather.idngram < weather.closed.txt

#idngram2lm -vocab_type 0 -idngram weather.idngram -vocab weather.vocab -arpa weather.arpa

命令text2idngram列举文本中出现的每一个n元语法。产生一个二进制文件,含有一个n元数组的数值排序列表,对应于与词有关的的N-Gram。超出文本范围的词汇映射值为0

命令idngram2lm输入文件包括一个idngram文件,一个vocab文件和一个ccs文件,输出是一个后缀为binlm的语言模型文件。其中ccs文件指句首和句尾的静音<s></s>

命令binlm2arpa是将binlm文件转换为实验中需要的arpa格式语言模型文件。

4)转换为 CMU的二进制格式 (DMP)

        如果你的语言模型比较大的话,最好就转换为CMU的二进制格式 (DMP),这样可以加快加载语言模型的速度,减少解码器初始化的时间。但对于小模型来说,就没有这个必要,因为sphinx3能处理这两种后缀名的语言模型文件。

#sphinx_lm_convert -i weather.arpa -o weather.lm.DMP

 

最终生成了语言模型weather.lm.DMP,此文件为解码器端所需要的文件格式。

 

二、改进现有的声学模型去适应我们的语音:

     (原文是Adapting the default acoustic model,但我不知道怎么用中文表达合适,呵呵,请各位前辈指导)

       本文主要描述了如何通过对声学模型做一些简单工作去改进语音识别。但需要注意的是,他改进的只是你提供的适应数据和模型的匹配。例如:可以适应你的声音使得口语较好的识别,或者也可以使用特定的录音环境,适应你的或者用户的口音等等。

       适应的过程是通过提供适应的数据(我不知道怎么翻译,也就是你的录音数据)去改进现有的模型。这样获得的识别效果往往比重新训练鲁棒性要强,尽管你的适应数据集比较小。例如,对于特定人来说,5分钟的语音就可以达到很明显的听写准确度了。

 

1、创建一个适应的语料库

      语料库包含了一些句子,这些句子是任意指定的,但最好可以覆盖你想要识别的句子里面包含的高频率单词或者音素。

       CMU提供了一个例子 CMU ARCTIC,里面包含了20个句子,但这个是英文的,所以我们得自己做一个中文的。CMU ARCTIC 见:http://festvox.org/cmu_arctic/

 

1.1、需要的文件:

共需要四个文件:

arctic20.txt  文本文件:里面是中文的句子

arctic20.fileids控制文件:记录我的语音文件(读arctic20.txt里面的句子的录音)的路径

arctic20.transcription脚本文件:中文句子和语音文件的对应

arctic20.dic 字典文件:记录arctic20.txt里面的句子的因素组成

       其实我也不知道具体应该如何建这些文件,我参考了CMU ARCTIC这个英文的,但中文有点不一样,我自己的这些文件的内容如下:(我新建了一个voice文件夹来管理这次的工作)

arctic20.txt因为我是要语音控制系统的,所以我就加入了很多这类的控制语言,共12个句子:

你确定吗

打开我的电脑,确定还是取消

关闭计算机,退出浏览器

你好吗?可以退出程序吗

返回上一页还是返回主菜单

放大还是缩小页面

今天的天气不错,不下雨

你喜欢听音乐吗,需要打开音乐播放器吗,听第几首歌

需要浏览图片,上一张还是下一张

我想看视频,有什么电影

打开系统设置,基本设置

进入主菜单,请控制,向左,向右,还是,向上,向下

 

arctic20.fileids我把上面12个句子对应的录音文件(放在当前目录下的)命名为arctic_*,不需要后缀名的:

arctic_0001

arctic_0002

arctic_0003

arctic_0004

arctic_0005

arctic_0006

arctic_0007

arctic_0008

arctic_0009

arctic_0010

arctic_0011

arctic_0012

 

arctic20.transcription前面 <s> </s>表示静音,()括号内的就是对应的录音文件:

<s> 你确定吗 </s> (arctic_0001)

<s> 打开我的电脑,确定还是取消 </s> (arctic_0002)

<s> 关闭计算机,退出浏览器 </s> (arctic_0003)

<s> 你好吗?可以退出程序吗 </s> (arctic_0004)

<s> 返回上一页还是返回主菜单 </s> (arctic_0005)

<s> 放大还是缩小页面 </s> (arctic_0006)

<s> 今天的天气不错,不下雨 </s> (arctic_0007)

<s> 你喜欢听音乐吗,需要打开音乐播放器吗,听第几首歌 </s> (arctic_0008)

<s> 需要浏览图片,上一张还是下一张 </s> (arctic_0009)

<s> 我想看视频,有什么电影 </s> (arctic_0010)

<s> 打开系统设置,基本设置 </s> (arctic_0011)

<s> 进入主菜单,请控制,向左,向右,还是,向上,向下 </s> (arctic_0012)

 

arctic20.dic字典文件:记录arctic20.txt里面的句子的因素组成,我建立这个文件的时候还是比较坎坷的。先是按词语为单位,到后面统计时,统计不过去,然后我改成以词为单位,还是统计不了,出现段错误,最后我改成以句子为单位,就是下面这样,才可以,注意下面标红的这几个,和我们平时的拼音有点不一样:

你确定吗  n i q uxe d ing m a

打开我的电脑,确定还是取消 d a k ai w o d e d ian n aoq uxe d ing h ai sh ibq ux x i ao

关闭计算机,退出浏览器 g uan b i j i s uan j i t ui ch u l iu l an q i

你好吗?可以退出程序吗 n i h ao m a k e y i t ui ch u ch engx ux m a

返回上一页还是返回主菜单 f an h ui sh ang y i y e h aish ib f an h ui zh u c ai d an

放大还是缩小页面 f ang d a h ai sh ib s uo x iao y e m ian

今天的天气不错,不下雨 j in t ian d e t ian q i b u c uo b u x ia y u

你喜欢听音乐吗,需要打开音乐播放器吗,听第几首歌 n i x i h uan t ing y iny uxs uxe m a x ux y ao d a k ai y in y uxe b o f ang q i m a t ing d i j i sh ou g e

需要浏览图片,上一张还是下一张 x ux y ao l iu l an t u p ian sh ang y i zh ang h ai sh i x ia y i zh ang

我想看视频,有什么电影 w o x iang k an sh i p in y ou sh en m e d ian y ing

打开系统设置,基本设置 d a k ai x i t ong sh ezh ib j i b en sh e zh ib

进入主菜单,请控制,向左,向右,还是,向上,向下 j in r u zh u c ai d an q ing k ong zh ib x iang z uo x iang y ou h ai sh i x iang sh ang x iang x ia

 

1.2、录制你的适应数据

        为适应语料库里面的每一个句子录制一个语音文件,录音文件的命名需要和arctic20.transcriptionarctic20.fileids的一致

        注意:此处音频文件采样率16KHz16bit单声道录音,而且是wav格式。

       我在Linux下写了一个处理脚本来实现上面这12个句子的录音:rec_wav.sh,内容如下:

for i in `seq 1 12`; do

       fn=`printf arctic_%04d $i`;

       read sent; echo $sent;

       rec -r 16000 -e signed-integer -b 16 -c 1 $fn.wav 2>/dev/null;

done < arctic20.txt

        在这里我们需要用到rec这个录音命令,这个命令是由Linux下一个很有名的音频转换程序sox携带的,所以我们需要先安装sox

#apt-get install sox

然后改变rec_wav.sh的运行属性:

#chmod 777 rec_wav.sh

#./rec_wav.sh

       这个脚本会显示一句话,然后进入录音,我们把这个句子读出来,然后按ctrl+c显示下一句话,然后录音,如此循环到全部的句子的语音数据拿到。这样在当前文件夹下面就会显示如下文件:

arctic_0001.wav 

arctic_0002.wav

.....

arctic_0012.wav

然后,我们需要测试下每个音频文件是否正常:

for i in *.wav; do play $i; done

他会依次的播放我们录下的这些音频文件;如果不对的话,就得重录,我的就没有什么问题。

 

2、适应声学模型

      首先我们需要先拷贝现有的默认的声学模型到当前目录下

#cp -a /usr/local/share/pocketsphinx/model/hmm/zh/tdt_sc_8k/ .

这个是pocketsphinx自带的中文声学模型

 

2.1、生成声学特征文件

        我们需要对我们录制的wav语音文件提取MFCC特征,而且必须以和默认的模型相同的声学模型参数去提取这些特征,他们存储在声学模型目录的feat.params文件中。

#sphinx_fe -argfile tdt_sc_8k/feat.params -samprate 16000 -c arctic20.fileids -di . -do . -ei wav -eo mfc -mswav yes

这样在当前文件夹下就会对每一个语音文件生成一个*.mfc后缀的特征文件:(我这里生成的是*.mfc,但我执行后面的工作,也就是统计数据时,发现统计程序需要的是*..mfc的,我也不知道哪里出现问题了,所以我只能将其修改为*..mfc

arctic_0001.mfc

arctic_0001.wav

arctic_0002.mfc

arctic_0002.wav

……

 

2.2、转化sendumpmdef文件

       有一些模型没有足够的数据去做适应。这里有一个额外的文件我们需要下载的,为了节省空间,所以没有添加进PocketSphinx的发行版包了。我们可以从下面的链接下载:

http://cmusphinx.svn.sourceforge.net/viewvc/cmusphinx/trunk/pocketsphinx-extra/?view=tar

        解压,拷贝pocketsphinx-extra/model/hmm/zh/mandarin_sc3_notone_3s_8k.cd_semi_5000文件夹里面的mixture_weights文件到你的声学模型目录下;

#cp ../sourcecode/pocketsphinx-extra/model/hmm/zh/mandarin_sc3_notone_3s_8k.cd_semi_5000/mixture_weights tdt_sc_8k/

        当然,如果你安装了 SphinxTrain Python modules,那么你就可以使用sendump.py去把声学模型的sendump文件转换为mixture_weights文件。

       然后我们需要把声学模型的mdef文件转换为SphinxTrain训练工具可以使用的plain text格式:

#pocketsphinx_mdef_convert -text tdt_sc_8k/mdef tdt_sc_8k/mdef.txt

 

2.3、累加观察序列

       通过SphinxTrain训练工具带的bw程序去收集适应数据的统计数据。bw程序在sphinxtrain-1.0.7声学训练工具源码的bin.i686-pc-linux-gnu文件夹中。

bw map_adapt mk_s2sendumpmllr_solve程序都拷贝到当前目录。

#cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/bw .

#cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/mk_s2sendump .

#cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/map_adapt .

#cp ../sourcecode/sphinxtrain-1.0.7/bin.i686-pc-linux-gnu/mllr_solve .

然后开始统计:

./bw -hmmdir tdt_sc_8k -moddeffn tdt_sc_8k/mdef.txt -ts2cbfn .semi. -feat 1s_c_d_dd -svspec 0-12/13-25/26-38 -cmn current -agc none -dictfn arctic20.dic -ctlfn arctic20.fileids -lsnfn arctic20.transcription -accumdir .

确保bw的参数和声学模型目录的feat.params文件一致;

       我刚才说过字典文件的建立的时候,以词语和单字为基本单元的时候,在这个步骤就会出现以下类似的错误:

……

utt>     0               arctic_0001stat_retry(arctic_0001..mfc) failed

ERROR: "corpus.c", line 1555: MFCC read of arctic_0001..mfc failed.  Retrying after sleep...

stat_retry(arctic_0001..mfc) failed

ERROR: "corpus.c", line 1555: MFCC read of arctic_0001..mfc failed.  Retrying after sleep...

stat_retry(arctic_0001..mfc) failed

 ……

utt>     0               arctic_0001  357INFO: cmn.c(175): CMN: 30.40 -1.07 -0.65 -0.24  1.70 -0.08 -0.39  0.05  0.59 -0.15  0.15  0.40  0.34

    0WARNING: "mk_phone_list.c", line 173: Unable to lookup word '你确定吗' in the lexicon

WARNING: "next_utt_states.c", line 79: Segmentation fault (core dumped)

修改为句单元后,就没有问题了。

 

2.4、创建MLLR(最大似然线性回归算法)变换

          MLLR是一种有效的轻量级的自适应方法,尤其是当样本数据集较小时。在在线适应中使用MLLR是一种比较好的方法。MLLR在连续模型中表现得比较好,但是因为半连续模型很依赖混合权重,所以它的效果有限。如果想得到最好的准确度,最好将MLLR适应和MAP适应两种方法结合起来应用;

      下面我们产生MLLR变换,并在运行时将其传入解码器去适应这个声学模型。

#./mllr_solve -meanfn tdt_sc_8k/means -varfn tdt_sc_8k/variances -outmllrfn mllr_matrix -accumdir .

      这个命令行会产生一个名叫mllr_matrix的适应数据文件。现在,如果我们需要使用这个适应模型,那就可以通过给pocketsphinx命令行参数添加 -mllr mllr_matrix来使用;

 

2.5、通过MAP更新声学模型

          MAP是一个不同的适应方法。他不同于MLLR,他不会创建一个通用的变换,而是更新每个模型参数。

       我们将原来的声学模型目录拷贝为一个新的模型目录:

#cp tdt_sc_8k/ -rf tdt_sc_8kadapt

通过map_adapt程序来实现适应:

#./map_adapt -meanfn tdt_sc_8k/means -varfn tdt_sc_8k/variances -mixwfn tdt_sc_8k/mixture_weights -tmatfn tdt_sc_8k/transition_matrices -accumdir . -mapmeanfn tdt_sc_8kadapt/means -mapvarfn tdt_sc_8kadapt/variances -mapmixwfn tdt_sc_8kadapt/mixture_weights -maptmatfn tdt_sc_8kadapt/transition_matrices

 

2.6、重新创建适应的sendump文件

       通过已经更新的mixture_weights文件来重新创建 sendump文件,可以节省空间:

#./mk_s2sendump -pocketsphinx yes -moddeffn tdt_sc_8kadapt/mdef.txt -mixwfn tdt_sc_8kadapt/mixture_weights -sendumpfn tdt_sc_8kadapt/sendump

 

好了,恭喜你,现在你已经拥有一个改进了的适应你的语音的声学模型了。

 

新的声学模型在hub4wsj_sc_8kadapt目录下,目录有以下文件:

mdef

feat.params

mixture_weights

means

noisedict

transition_matrices

variances

然后把他拷贝到我们的软件目录,

#pocketsphinx_continuous -hmm <your_new_model_folder> -lm <your_lm> -dict <your_dict>

然后就可以使用了。其中的语言模型和字典文件用默认的即可。

 

       我试验了以下,感觉提升也不是很大。识别率还是挺低的,呵呵,不知道是不是我这个过程有一些错误或者有一些没有考虑的地方。所以暂时也没办法实用。

 

        我也试验了pocketsphinx所携带的英语的识别,感觉比中文的好点,但识别率还是不高,呵呵,也可能是我的发音不标准。对于中文的大词汇量语音识别来说,我试过微软的,IBM的,感觉效果也不算特别好,不过商业的一般都会比这些开源的好,因为别人有足够的样本(不同人不同录音环境等等)去训练一两个月。但CMU这个开源项目还是得到不少的资助的。另外,不知道国内牛逼的科大讯飞怎样,还没试过。

        而对于小词汇量的语音识别,例如一些控制指令集啊,数字啊这些,好像准确度都做得挺好的了。所以难道我要妥协只能采用小词汇量的语音识别来加入我的人机交互系统吗?但这样就只是能控制机器而已,不能像iphonesiri这样和她聊天了?不知道各位前辈有什么建议吗?


  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本文档介绍Sphinx4在Windows下的中文训练过程及注意事项,与本文档配套的是我自己的训练实例bergtrain和用到的软件。 本文档编写日期 2013-04-23 1、为什么要训练? sphinx4目前的版本中仅提供了英文等语音识别库。中文的库是PTM或semi类型的,在java版sphinx中无法使用。 2、Sphinx的训练指哪些内容? 在Sphinx中有语言模型声学模型等概念,如果你不想了解这些,请参考以下内容: a1、中文每个字的标准发音已经有一个较为全面的文件进行了标注 这个文件就是zh_broadcastnews_utf8.dic(下称这类文件为发音字典),在sphinx网站上可以下载,我们也包含了它。 下面是该文件的片断,它用类似拼音的方式标注了每个字或词的发音。 昌 ch ang 昌北 ch ang b ei 昌必 ch ang b i 昌都 ch ang d u 昌赫 ch ang h e a2、需要告诉sphinx我们经常使用的字、词是哪些,它们出现的频率如何 由于开放式语音识别尚难实现,所以sphinx实际上只能较好的处理相对小的语言集合。 因此,针对特定的领域,告诉sphinx该领域的词汇和各词出现的频率将极大提高识别率。 a3、需要告诉sphinx每个字、词的真正读音 发音字典告诉sphinx每个字的标准读音,但面对的说话人往往不会以标准读音来朗读。 因此sphinx需要学习说话人的“口音”。 如果训练时的读者发音比较标准,则sphinx能“举一反三”,识别其他不那么标准的读者的语音。 推荐的做法是训练一些典型的口音:标准男、女声,童音,最后再考虑特定用户的口音。 3、如何准备训练内容所需的原料? 需要准备两大内容:1)文本语料文件,2)语料录音文件。 文本语料文件给出2.a2中需要的内容,在bergtrain的etc文件下的berginput.txt文件就是一个预料文件。 它以行为单位,给出了150个中文句子。 语料录音文件是根据文本语料文件,朗读它的每行/句话,保存到每一个语音文件即可。 语料文件中的语句应该尽量选择领域相关的,在覆盖领域内名词的前提下,覆盖尽可能多的通用词汇。 4、训练环境及注意事项 本文的训练软硬件如下: 硬件:T60P笔记本,机器自带录音设备;操作系统为Win7 32位。 软件:Sphinx cmuclmtk-0.7-win32.zip pocketsphinx-0.8-win32.zip sphinxbase-0.8-win32.zip sphinxtrain-1.0.8-win32.zip sphinx4-1.0beta6-bin.zip,用于编写java版的识别软件所需的库 脚本执行软件 ActivePerl-5.16.3.1603-MSWin32-x86-296746.msi ActivePython-2.7.2.5-win32-x86.msi 录音和处理软件 audacity-win-2.0.3rc1.zip,可进行录音和声音文件处理(如降噪),免费软件 FairStars.zip,可进行批量录音(V3.5绿色版) 文本编辑软件UltraEdit,UltraEdit-32.rar绿色版 注意: 文件格式 语料文件必须使用UltraEdit进行编辑, 在编辑后,使用 文件-转换-ASCII转UTF-8(UNICODE编辑),指定文件中的中文使用utf8编码。 在保存前,设置格式如下: 换行符:UNIX终束符 - LF 指定文件中的回车/换行符为编码0A的换行符 格式:UTF-8 - 无BOM 每个文件的末尾必须有一个回车! 这个回车将在保存时被替换为编码0A的换行符,训练脚本需要这个符号来确认文件的结束。 录音文件 如果你不希望去编辑训练中的配置文件,则在使用FairStars录音时作如下设定: 进入菜单和对话框 选项-显示录音选项-编码-WMA, 设定:采样率(16000Hz)、通道(单声道)、比特率(16Kbps) 5、训练步骤 下面逐步从零开始进行训练 5.1 软件环境的安装 将本文档所在的文件夹解压或拷贝到d:\,即本文档路径是d:\sphinxtrain\Sphinx中文训练教程.txt 1)点击安装ActivePerl-5.16.3.1603-MSWin32-x86-296746.msi和ActivePython-2.7.2.5-win32-x86.msi; 2)解压Sphinx中除sphinx4-1.0beta6-bin.zip外的压缩文件到d:\sphinxtrain下

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值