[语音识别] 文本加标点--准备训练数据 (适用于LSTM与BERT)

20 篇文章 99 订阅 ¥79.90 ¥99.00
该博客主要介绍了如何准备语音识别中用于LSTM和BERT模型训练的文本加标点数据。通过一系列步骤,包括解析wiki XML文件为txt,合并txt,繁体转简体,去除英文和空格,选择合适句子,使用正则表达式,以及分词处理,最后生成训练数据的npy文件。
摘要由CSDN通过智能技术生成

#下载维基百科数据
# wget https://dumps.wikimedia.org/zhwiki/latest/zhwiki-latest-pages-articles.xml.bz2 
# 解析wikie的xml文件为txt文件 
python wikiextractor/WikiExtractor.py zhwiki-latest-pages-articles.xml.bz2 -o wiki.txt
# 将多个txt文件合并为一个
python merge2txt.py
# 将繁体中文转为简体中文
python chinese_t2s.py -i corpus.zhwiki.txt -o corpus.zhwiki.simplified.txt 
# 去除英文和空格
python remove_en_blank.py -i corpus.zhwiki.simplified.txt -o corpus.zhwiki.simplified.done.txt
# 选取合适的句子  ( 使用正则:'[a-zA-Z0-9’"#$%&\'()*+-/::<=>@★…【】_-—℃%¥℉°()·「」『』 《》 “”‘’[\\]^_`{|}~]+' )
python select_words.py 
# 对句子进行分词
python seg_words.py
# 生成训练数据npy 
python generate_train_data.py 

# 解析wikie的xml文件为txt文件 : 

#!/usr/bin/env python
# -*- coding: utf-8 -*-

# =======================
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MachineLP

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值