最近在搞人工智能的东东,玩了玩词云的东西,在编写代码时,出现了一个问题。
目的:统计西游记里出现的词的内容。
读取西游记整本小说的内容,然后进行统计分析。
代码如下:
text = open('西游记.txt').read()
但是在执行的时候一直报错:
UnicodeDecodeError: ‘gbk’ codec can’t decode byte 0x80 in position 2: illegal multibyte sequence
分析可能是由于小说里的内容不是标准的gbk的内容导致的。
查看小说内容截图:
于是乎查找了一番,分析可能是由于小说里还有特殊的符号等内容导致的。
想法:需要进行编码转换。
于是修改代码为,添加了编码范围为utf-8:
text = open('西游记.txt' ,encoding='utf-8').read()
若依然报错,可以添加属性忽略非法字符内容
text = open('西游记.txt', encoding='utf-8', errors='ignore' )