python去除空格标点_使用空格删除标点;属性

使用spaCy库处理文本数据,计算TF-IDF值时遇到问题。目标是移除专有名词、标点符号和停用词。当前代码在尝试过滤标点符号时出错,因为'str'对象没有'is_punct'属性。寻求简化代码以高效地完成任务。
摘要由CSDN通过智能技术生成

目前,我正在使用下面的代码对一些使用spaCy的文本数据进行元素化和计算TF-IDF值:lemma = []

for doc in nlp.pipe(df['col'].astype('unicode').values, batch_size=9844,

n_threads=3):

if doc.is_parsed:

lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct | n.lemma_ != "-PRON-"])

else:

lemma.append(None)

df['lemma_col'] = lemma

vect = sklearn.feature_extraction.text.TfidfVectorizer()

lemmas = df['lemma_col'].apply(lambda x: ' '.join(x))

vect = sklearn.feature_extraction.text.TfidfVectorizer()

features = vect.fit_transform(lemmas)

feature_names = vect.get_feature_names()

dense = features.todense()

denselist = dense.tolist()

df = pd.DataFrame(denselist, columns=feature_names)

df = pd.DataFrame(denselist, columns=feature_names)

lemmas = pd.concat([lemmas, df])

df= pd.concat([df, lemmas])

我需要去掉专有名词、标点符号和停止单词,但在我当前的代码中做这件事有些困难。我读过一些documentation和other resources,但现在遇到了一个错误:---------------------------------------------------------------------------

AttributeError Traceback (most recent call last)

in ()

7 if doc.is_parsed:

8 tokens.append([n.text for n in doc])

----> 9 lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct or n.lemma_ != "-PRON-"])

10 pos.append([n.pos_ for n in doc])

11 else:

in (.0)

7 if doc.is_parsed:

8 tokens.append([n.text for n in doc])

----> 9 lemma.append([n.lemma_ for n in doc if not n.lemma_.is_punct or n.lemma_ != "-PRON-"])

10 pos.append([n.pos_ for n in doc])

11 else:

AttributeError: 'str' object has no attribute 'is_punct'

有没有一种更简单的方法可以将这些内容从文本中去掉,而不必彻底改变我的方法?

完整代码可用here。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值