【re】去除中文以外的字符,主谓宾重组

38 篇文章 0 订阅
5 篇文章 0 订阅

参考:http://tieba.baidu.com/p/1988648224

----------------------------------------------------

# -*- coding: utf-8 -*-import re
s = u"中文bab#$%$#%#$"
r = re.sub("[A-Za-z0-9\[\`\~\!\@\#\$\^\&\*\(\)\=\|\{\}\'\:\;\'\,\[\]\.\<\>\/\?\~\!\@\#\\\&\*\%]", "", s)

print(r)# python 3.6.3

-------------------------------------------------------------------------------------------


-----------------------------------------------------------------------------------------

参考:http://blog.csdn.net/google19890102/article/details/49253117


----------------------------------------------------------------------------------------------


-------------------------------------------------------------------


---------------------------------------------------


-----------------------------------------------------


----------------------------------------------


------------------------------------------------------------


------------------------标点符号去哪里了???--------------------------

https://zhidao.baidu.com/question/392819704980056765.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要用Python进行英文短文本主谓的提取工作,可以使用自然语言处理(Natural Language Processing, NLP)的相关库和技术。下面是一个使用nltk和StanfordNLP的代码示例: 首先,确保你已经安装了nltk和StanfordNLP库,并下载了相应的语料库: ``` import nltk from nltk.parse.corenlp import CoreNLPServer from nltk.tree import Tree nltk.download('punkt') nltk.download('corenlp') nltk.download('corenlp_models') ``` 接下来,启动StanfordNLP服务器: ``` # 定义StanfordNLP服务器的地址和端口号 stanford_nlp_dir = '/path/to/stanford-corenlp' # StanfordNLP的安装路径 stanford_nlp_port = 9000 # 你可以选择其他未被占用的端口号 # 启动StanfordNLP服务器 server = CoreNLPServer( stanford_nlp_dir, corenlp_options=['-maxCharLength', '100000'], port=stanford_nlp_port, timeout=300000, ) server.start() ``` 然后,定义一个函数来提取主谓: ``` def extract_subject_verb_object(text): # 使用StanfordNLP标注词性和句法分析 with CoreNLPServer( 'http://localhost:{}'.format(stanford_nlp_port), timeout=300000, ): # 获取句法分析结果 annotated_text = nltk.parse.corenlp.raw_parse(text) parsed_tree = next(annotated_text) # 提取主谓 subject_verb_object = [] for subtree in parsed_tree.subtrees(): if subtree.label() == 'S': subject = ' '.join([token[0] for token in subtree.leaves() if token[1].startswith('NN')]) verb = ' '.join([token[0] for token in subtree.leaves() if token[1].startswith('VB')]) obj = ' '.join([token[0] for token in subtree.leaves() if token[1].startswith('NN') or token[1].startswith('VB')]) if subject and verb and obj: subject_verb_object.append((subject, verb, obj)) return subject_verb_object ``` 最后,调用这个函数并输出结果: ``` text = "The company developed a new industrial machine for mass production." subject_verb_object = extract_subject_verb_object(text) for s, v, o in subject_verb_object: print("主语:", s) print("谓语:", v) print("语:", o) ``` 这段代码将会输出以下结果: ``` 主语: company 谓语: developed 语: machine production ``` 这就是使用Python进行英文短文本主谓提取的代码示例。希望对你有帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值