from nltk.corpus import gutenberg
gutenberg.fileids()#加载古滕堡语料库
for fileid in gutenberg.fileids():
num_chars = len(gutenberg.raw(fileid))#字母个数
num_words = len(gutenberg.words(fileid))#词个数
num_sents = len(gutenberg.sents(fileid))#句子个数
num_vocab = len(set([w.lower() for w in gutenberg.words(fileid)]))#不同单词个数
print(int(num_chars/num_words),int(num_words/num_sents),int(num_words/num_vocab),fileid)
#平均词长、平均句子长度、本文中每个词出现的平均次数
1、raw()函数返回没有进行处理的文件内容;sents()函数将文本划分成句子,每一个句子是一个词链表(一篇文章就由链表的链表组成)