(1)Python所有方向的学习路线(新版)
这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
最近我才对这些路线做了一下新的更新,知识体系更全面了。
(2)Python学习视频
包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。
(3)100多个练手项目
我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
+ 二、实现更复杂的文本预处理逻辑示例代码
+ 三、去除停用词、词干提取示例代码
+ 四、词形还原、拼写纠正示例代码
+ 五、实体识别、去除HTML标签示例代码
+ 六、去除URL链接、处理缩写词示例代码
+ 七、处理特定的符号、处理特定的文本模式示例代码
+ 八、归纳总结
系列短博文目录
Python文本和语音相互转换库技术点案例示例系列
短博文目录
前言
pyttsx3在文本转换语音之前,首先要开展系列步骤的文本预处理工作。
这些预处理步骤可以在使用pyttsx3
之前应用于文本,以提高转换结果的质量和可读性。预处理后的文本更干净、准确,可以更好地用于语音转换。pyttsx3主要使用preprocess_text
函数开展文本预处理。
一、pyttsx3的preprocess_text
函数文本预处理基本用法示例代码
下面是一个使用pyttsx3
库进行文本预处理基本用法的示例代码:
import pyttsx3
def preprocess\_text(text):
# 移除文本中的特殊字符
processed_text = ''.join(e for e in text if e.isalnum() or e.isspace())
# 将文本转换为小写
processed_text = processed_text.lower()
return processed_text
# 创建一个TTS引擎
engine = pyttsx3.init()
# 设置预处理文本
text = "Hello, World! This is a text-to-speech example."
# 预处理文本
processed_text = preprocess_text(text)
# 使用TTS引擎朗读预处理后的文本
engine.say(processed_text)
engine.runAndWait()
在上面的示例代码中,preprocess_text
函数用于对文本进行预处理。它首先移除文本中的特殊字符,然后将文本转换为小写。这样可以确保文本在朗读之前被正确处理。
然后,我们使用pyttsx3.init()
方法初始化一个TTS引擎。接下来,我们设置要朗读的文本,并将其传递给preprocess_text
函数进行预处理。最后,使用engine.say()
方法将预处理后的文本传递给TTS引擎进行朗读,然后使用engine.runAndWait()
方法等待朗读完成。
你可以根据自己的需求修改preprocess_text
函数,以实现更复杂的文本预处理逻辑。
二、实现更复杂的文本预处理逻辑示例代码
下面是一个修改后的preprocess_text
函数,实现了更复杂的文本预处理逻辑:
import re
def preprocess\_text(text):
# 移除文本中的特殊字符和标点符号
processed_text = re.sub(r'[^\w\s]', '', text)
# 将文本转换为小写
processed_text = processed_text.lower()
# 移除多余的空格
processed_text = re.sub(r'\s+', ' ', processed_text)
return processed_text
在这个修改后的函数中,我们使用了re
模块的正则表达式功能。首先,我们使用re.sub()
函数和正则表达式[^\w\s]
来移除文本中的特殊字符和标点符号。这个正则表达式表示匹配除了字母、数字、下划线和空格之外的任何字符。然后,我们将文本转换为小写,并使用re.sub()
函数和正则表达式\s+
来移除多余的空格,将连续的多个空格替换为一个空格。
这样,预处理后的文本将只包含小写字母、数字、下划线和单个空格,没有特殊字符和多余的空格。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,例如去除停用词、词干提取等。
三、去除停用词、词干提取示例代码
当涉及到去除停用词和词干提取时,可以使用一些自然语言处理库,如nltk
(Natural Language Toolkit)来实现。下面是一个修改后的preprocess_text
函数,包括去除停用词和词干提取的示例代码:
import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import PorterStemmer
def preprocess\_text(text):
# 移除文本中的特殊字符和标点符号
processed_text = re.sub(r'[^\w\s]', '', text)
# 将文本转换为小写
processed_text = processed_text.lower()
# 移除多余的空格
processed_text = re.sub(r'\s+', ' ', processed_text)
# 去除停用词
stop_words = set(stopwords.words('english'))
processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
# 词干提取
stemmer = PorterStemmer()
processed_text = ' '.join(stemmer.stem(word) for word in processed_text.split())
return processed_text
在这个修改后的函数中,我们首先导入了nltk
库,并从nltk.corpus
模块导入了停用词和从nltk.stem
模块导入了词干提取器PorterStemmer
。
然后,在preprocess_text
函数中,我们创建了一个停用词集合stop_words
,使用set(stopwords.words('english'))
加载英文停用词。接下来,我们使用列表推导式和条件判断语句,将不在停用词集合中的单词保留下来,形成一个经过去除停用词的文本。
最后,我们创建了一个词干提取器stemmer
,使用PorterStemmer()
初始化。然后,使用列表推导式和词干提取器将文本中的每个单词提取出词干,并重新组合成一个经过词干提取的文本。
这样,预处理后的文本将不包含停用词,并且每个单词都被提取为其词干形式。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如词形还原、拼写纠正等。
四、词形还原、拼写纠正示例代码
要进行词形还原和拼写纠正,我们可以使用nltk
库中的WordNetLemmatizer
和spell
模块。下面是一个修改后的preprocess_text
函数,包括词形还原和拼写纠正的示例代码:
import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import download
from spellchecker import SpellChecker
def preprocess\_text(text):
# 移除文本中的特殊字符和标点符号
processed_text = re.sub(r'[^\w\s]', '', text)
# 将文本转换为小写
processed_text = processed_text.lower()
# 移除多余的空格
processed_text = re.sub(r'\s+', ' ', processed_text)
# 去除停用词
stop_words = set(stopwords.words('english'))
processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
# 词形还原
download('averaged\_perceptron\_tagger')
download('wordnet')
lemmatizer = WordNetLemmatizer()
tokens = word_tokenize(processed_text)
tagged_tokens = pos_tag(tokens)
processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
# 拼写纠正
spell = SpellChecker()
processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
return processed_text
在这个修改后的函数中,我们首先导入了nltk
库的WordNetLemmatizer
、word_tokenize
、pos_tag
模块,以及spellchecker
库的SpellChecker
模块。
然后,在preprocess_text
函数中,我们下载了nltk
库的averaged_perceptron_tagger
和wordnet
资源,用于词形还原。
接下来,我们创建了一个词形还原器lemmatizer
,使用WordNetLemmatizer()
初始化。然后,我们使用word_tokenize
函数将文本分词为单词列表,使用pos_tag
函数为每个单词标记词性,然后使用列表推导式和词形还原器将每个单词还原为其原始形式,最后重新组合成一个经过词形还原的文本。
最后,我们创建了一个拼写纠正器spell
,使用SpellChecker()
初始化。然后,使用列表推导式和拼写纠正器对文本中的每个单词进行拼写纠正,并重新组合成一个经过拼写纠正的文本。
这样,预处理后的文本将进行词形还原和拼写纠正,以提高文本的质量和准确性。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如实体识别、去除HTML标签等。
五、实体识别、去除HTML标签示例代码
要进行实体识别和去除HTML标签,我们可以使用nltk
库中的ne_chunk
和BeautifulSoup
模块。下面是一个修改后的preprocess_text
函数,包括实体识别和去除HTML标签的示例代码:
import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import ne_chunk
from nltk import download
from spellchecker import SpellChecker
from bs4 import BeautifulSoup
def preprocess\_text(text):
# 去除HTML标签
processed_text = BeautifulSoup(text, "html.parser").get_text()
# 移除文本中的特殊字符和标点符号
processed_text = re.sub(r'[^\w\s]', '', processed_text)
# 将文本转换为小写
processed_text = processed_text.lower()
# 移除多余的空格
processed_text = re.sub(r'\s+', ' ', processed_text)
# 去除停用词
stop_words = set(stopwords.words('english'))
processed_text = ' '.join(word for word in processed_text.split() if word not in stop_words)
# 词形还原
download('averaged\_perceptron\_tagger')
download('wordnet')
lemmatizer = WordNetLemmatizer()
tokens = word_tokenize(processed_text)
tagged_tokens = pos_tag(tokens)
processed_text = ' '.join(lemmatizer.lemmatize(word, tag) for word, tag in tagged_tokens)
# 拼写纠正
spell = SpellChecker()
processed_text = ' '.join(spell.correction(word) for word in processed_text.split())
# 实体识别
tagged_tokens = pos_tag(word_tokenize(processed_text))
processed_text = ' '.join(chunk.label() if hasattr(chunk, 'label') else chunk[0] for chunk in ne_chunk(tagged_tokens))
return processed_text
在这个修改后的函数中,我们首先导入了nltk
库的ne_chunk
模块,以及BeautifulSoup
模块来处理HTML标签。
然后,在preprocess_text
函数中,我们使用BeautifulSoup
模块的BeautifulSoup(text, "html.parser").get_text()
方法去除文本中的HTML标签。
接下来,我们继续之前的步骤,包括移除特殊字符和标点符号、转换为小写、移除多余的空格、去除停用词、词形还原和拼写纠正。
最后,我们使用pos_tag
函数将文本中的单词标记词性,然后使用ne_chunk
函数进行实体识别。我们使用列表推导式和条件判断语句,将识别出的实体标签保留下来,形成一个经过实体识别的文本。
这样,预处理后的文本将进行实体识别和去除HTML标签,以进一步提高文本的质量和准确性。你可以根据自己的需求进一步修改这个函数,添加其他的预处理步骤,如去除URL链接、处理缩写词等。
六、去除URL链接、处理缩写词示例代码
要去除URL链接和处理缩写词,我们可以使用正则表达式来匹配和替换文本中的URL链接,以及使用一个缩写词词典来进行缩写词的替换。下面是一个修改后的preprocess_text
函数,包括去除URL链接和处理缩写词的示例代码:
import re
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.tokenize import word_tokenize
from nltk import pos_tag
from nltk import ne_chunk
做了那么多年开发,自学了很多门编程语言,我很明白学习资源对于学一门新语言的重要性,这些年也收藏了不少的Python干货,对我来说这些东西确实已经用不到了,但对于准备自学Python的人来说,或许它就是一个宝藏,可以给你省去很多的时间和精力。
别在网上瞎学了,我最近也做了一些资源的更新,只要你是我的粉丝,这期福利你都可拿走。
我先来介绍一下这些东西怎么用,文末抱走。
* * *
**(1)Python所有方向的学习路线(新版)**
这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
最近我才对这些路线做了一下新的更新,知识体系更全面了。
![在这里插入图片描述](https://img-blog.csdnimg.cn/8fc093dcfa1f476694c574db1242c05b.png)
**(2)Python学习视频**
包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。
![在这里插入图片描述](https://img-blog.csdnimg.cn/d66e3ad5592f4cdcb197de0dc0438ec5.png#pic_center)
**(3)100多个练手项目**
我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。
![在这里插入图片描述](https://img-blog.csdnimg.cn/f5aeb4050ab547cf90b1a028d1aacb1d.png#pic_center)
**(4)200多本电子书**
这些年我也收藏了很多电子书,大概200多本,有时候带实体书不方便的话,我就会去打开电子书看看,书籍可不一定比视频教程差,尤其是权威的技术书籍。
基本上主流的和经典的都有,这里我就不放图了,版权问题,个人看看是没有问题的。
**(5)Python知识点汇总**
知识点汇总有点像学习路线,但与学习路线不同的点就在于,知识点汇总更为细致,里面包含了对具体知识点的简单说明,而我们的学习路线则更为抽象和简单,只是为了方便大家只是某个领域你应该学习哪些技术栈。
![在这里插入图片描述](https://img-blog.csdnimg.cn/c741a91b05a542ba9dc8abf2f2f4b1af.png)
**(6)其他资料**
还有其他的一些东西,比如说我自己出的Python入门图文类教程,没有电脑的时候用手机也可以学习知识,学会了理论之后再去敲代码实践验证,还有Python中文版的库资料、MySQL和HTML标签大全等等,这些都是可以送给粉丝们的东西。
![在这里插入图片描述](https://img-blog.csdnimg.cn/9fa77af248b84885a6ec779b2ead064d.png)
**这些都不是什么非常值钱的东西,但对于没有资源或者资源不是很好的学习者来说确实很不错,你要是用得到的话都可以直接抱走,关注过我的人都知道,这些都是可以拿到的。**
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化学习资料的朋友,可以戳这里获取](https://bbs.csdn.net/forums/4304bb5a486d4c3ab8389e65ecb71ac0)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**