文件分词以及提取关键词

首先我的原始数据是这样的,关于爬虫请看http://blog.csdn.net/jemila/article/details/61196863

我的数据链接:http://pan.baidu.com/s/1hskNlEO 密码:dxv5


加载以下模块

import os
import jieba
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
from langconv import *


from langconv import *加载这个模块是为了简繁转换

加载停止词

f=open(r'C:/Users/user/Desktop/stopword.txt')
stopwords = f.readlines()
stopwords = [i.replace("\n","").decode("gbk") for i in stopwords]

定义一个分词函数

def sent2word(sentence):
    """
    Segment a sentence to words
    Delete stopwords
    """
    segList = jieba.cut(sentence)
    segResult = []
    for w in segList:
        segResult.append(w)
    newSent = []
    for word in segResult:
        if word in stopwords:
            # print "stopword: %s" % word
            continue
        else:
            newSent.append(Converter('zh-hans').convert(word.decode('utf-8')))


    return newSent

定义一个新建文件夹函数

def mkdir(path):
    # 引入模块
    import os
 
    # 去除首位空格
    path&#
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要读取文件并对文件内容进行分词,可以使用Python中的nltk(Natural Language ToolKit)库。下面是一个使用nltk库进行文件分词的示例代码: ```python import nltk nltk.download('punkt') # 下载nltk的punkt模块,用于分句等操作 with open('example.txt', 'r') as f: text = f.read() sentences = nltk.sent_tokenize(text) # 将文本分成句子 for sent in sentences: words = nltk.word_tokenize(sent) # 将句子分成单词 print(words) ``` 在这个示例中,我们首先使用`nltk.sent_tokenize()`函数将文本分成句子,然后对每个句子使用`nltk.word_tokenize()`函数将句子分成单词。最后,我们将分好的单词打印出来。 ### 回答2: Python中可以使用多种方式读取文件并进行分词,以下是其中两种常见的方法: 方法一:使用内置的文件读取函数 首先,我们可以使用内置的open()函数打开文件,然后读取文件内容并进行分词。具体示例代码如下: ```python with open('文件路径', 'r', encoding='utf-8') as file: content = file.read() # 读取文件内容 # 对读取的内容进行分词操作,例如使用结巴分词库 import jieba seg_list = jieba.cut(content) # 打印分词结果 for word in seg_list: print(word) ``` 方法二:使用第三方库 除了使用内置的文件读取函数,我们还可以使用第三方库来读取文件并进行分词。常用的库包括nltk和spaCy等。以下是使用nltk库的示例代码: ```python import nltk nltk.download('punkt') # 下载词法资源,仅需执行一次 from nltk.tokenize import word_tokenize # 读取文件内容 with open('文件路径', 'r', encoding='utf-8') as file: content = file.read() # 进行分词操作 tokens = word_tokenize(content) # 打印分词结果 for token in tokens: print(token) ``` 以上是两种常见的方法,根据具体需求和使用场景,可以选择适合的方法进行文件的读取和分词操作。需要注意的是,在使用第三方库进行分词时,可能需要预先下载一些词法资源。 ### 回答3: 在Python中,我们可以使用多种方式来读取文件并进行分词。下面我会介绍一种常用的方法。 首先,我们需要安装一个中文分词库,例如jieba。可以使用pip命令来安装它: ```python pip install jieba ``` 安装完成后,我们可以按照以下步骤进行文件的读取和分词: 1. 导入jieba库: ```python import jieba ``` 2. 打开文件并读取内容: ```python with open('file.txt', 'r', encoding='utf-8') as f: text = f.read() ``` 这里假设文件名为file.txt,并且使用utf-8编码。 3. 使用jieba库进行分词: ```python words = jieba.cut(text) ``` 这里我们调用jieba库的cut函数,对文本进行分词,返回的结果是一个生成器对象。 4. 将分词结果保存到列表中: ```python word_list = list(words) ``` 由于生成器对象只能被遍历一次,因此我们将其转换为列表,方便后续的操作。 5. 输出分词结果: ```python for word in word_list: print(word) ``` 这里我们简单地使用循环将分词结果逐行输出,你可以根据实际需求进行具体的操作,比如将分词结果保存到文件中。 至此,我们完成了使用Python读取文件并进行分词的过程。当然,这只是一种基本的方法,并且还有其他更高级的分词工具和技术可以使用,你可以根据自己的需求选择相应的方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值