python中文处理库_基于Python语言的中文文本处理研究

基于

Python

语言的中文文本处理研究

温珍

【期刊名称】

《南昌工程学院学报》

【年

(

),

期】

2018(037)003

【摘要】

With

the

popularity

of

computer

technology,text

processing

based

on

machine

language

are

widely

used

in

various

fields.

How

to

combine

the

advantages

of

statistical

and

machanical

methods

and

apply them to the automatic processing of texts has naturally become

the focus of corpus linguistic research at home and abroad. Compared

with

foreign

countries,do-mestic

research

in

the

field

of

Chinese

text

processing

is

lagging

behind.

Therefore,Chinese

text

processing

based

on ma-chine language makes more senses,especially for Chinese coding

and

word

segmentation.

All

the

examples

are

mainly

from

HSK

test

compositions written by English-spenking learaers of Chinese and Self-

built Chinese compositions Corpus of native Chinese speakers. Through

the

key

elements

of

segmentation,high-frequency

word

extraction,and

syntactic

analysis

in

the

study

of

the

Verb-Noun

Collocations,the

in-

depth observation of corpus reveals that Chinese learners whose native

language is English are less likely to use Verb+Object collocations than

Chinese

native

speakers.

And

this

paper

proposed

the

re-search

prospects

of

Chinese

Verb+Object

collocations.%

随着计算机技术的普及

,

基于机器语言的文本处理方法开始应用到各个领域

,

如何结合统计方法和机器方

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值