Python正则表达式匹配中文

参照Python正则表达式指南

在使用Python的过程中,由于需求原因,我们经常需要在文本或者网页元素中用Python正则表达式匹配中文,但是我们经常所熟知的正则表达式却只能匹配英文,而对于中文编码却望尘莫及,于是我大量Google,几经Baidu,花了两个多个小时测试,终于发现解决的办法。特记录如下

从字符串的角度来说,中文不如英文整齐、规范,这是不可避免的现实。本文结合网上资料以及个人经验,以 python 语言为例,稍作总结。欢迎补充或挑错。 
通常我们可以使用 repr()函数查看字串的原始格式。这对于写正则表达式有所帮助。 

Python正则表达式的问题

更加详细的Python正则表达式问题,请参见这里http://www.cnblogs.com/huxi/archive/2010/07/04/1771073.html

    Python 的 re模块有两个相似的函数:re.match(), re.search 。

    两个函数的匹配过程完全一致,只是起点不同。
    match只从字串的开始位置进行匹配,如果失败,它就此放弃;

    而search则会锲而不舍地完全遍历整个字串中所有可能的位置,直到成功地找到一个匹配,或者搜索完字串,以失败告终。

    如果你了解match的特性(在某些情况下比较快),大可以自由用它;如果不太清楚,search通常是你需要的那个函数。

    从一堆文本中,找出所有可能的匹配,以列表的形式返回,这种情况用findall()这个函数。例子见后面的代码。 

UTF-8与unicode

    UTF-8 是变长的,1-6个字节,少数是汉字每个占用3个字节,多数占用4个字节,正则式为[\x80-\xff]{3},这个都知道了吧。 
    unicode下,汉字的格式如\uXXXX,只要找到对应的字符集的范围,就能匹配相应的字串,方便从多语言文本中挑出所需要的某种语言的文本。不过,对于像日文这样的粘着语,既有中文字符,又有平假名片假名,或许结果会有所偏差。 

两种字符类可以并列在一起使用,例如,平假名、片假名、中文的放在一起,u"[\u4e00-\u9fa5\u3040-\u309f\u30a0-\u30ff]+",来自定义所需要匹配的文本。 

匹配中文时,正则表达式和目标字串的格式必须相同。这一点至关重要。或者都用默认的utf8,此时你不用额外做什么;如果是unicode,就需要在正则式之前加上u""格式。 

可以这样定义unicode字符串:string=u"我爱正则表达式"。如果字串不是unicode的,可以使用unicode()函数转换之。如果你知道源字串的编码,可以使用newstr=unicode(oldstring, original_coding_name)的方式转换,

例如 linux 下常用unicode(string, "utf8"),windows 下或许会用cp936吧

示例程序1

[python]  view plain  copy
  1. # -*- coding: utf-8 -*-   
  2. import sys  
  3. import re  
  4. reload(sys)  
  5. sys.setdefaultencoding('utf8')  
  6.   
  7.   
  8. s=""" 
  9.             en: Regular expression is a powerful tool for manipulating text.  
  10.             zh: 汉语是世界上最优美的语言,正则表达式是一个很有用的工具 
  11.             jp: 正規表現は非常に役に立つツールテキストを操作することです。  
  12.             jp-char: あアいイうウえエおオ  
  13.             kr:정규 표현식은 매우 유용한 도구 텍스트를 조작하는 것입니다.  
  14.             """  
  15. print "原始utf8字符"  
  16. #utf8  
  17. print "--------"  
  18. print repr(s)  
  19. print "--------\n"  
  20.   
  21. #非ansi  
  22. re_words=re.compile(r"[\x80-\xff]+")  
  23. m =  re_words.search(s,0)  
  24. print "非ansi字符"  
  25. print "--------"  
  26. print m  
  27. print m.group()  
  28. print "--------\n"  
  29.   
  30. #unicode  
  31. s = unicode(s)  
  32. print "原始unicode字符"  
  33. print "--------"  
  34. print repr(s)  
  35. print "--------\n"  
  36.   
  37. #unicode chinese  
  38. re_words = re.compile(u"[\u4e00-\u9fa5]+")  
  39. m =  re_words.search(s,0)  
  40. print "unicode 中文"  
  41. print "--------"  
  42. print m  
  43. print m.group()  
  44. res = re.findall(re_words, s)       # 查询出所有的匹配字符串  
  45. if res:  
  46.     print "There are %d parts:\n"% len(res)   
  47.     for r in res:   
  48.         print "\t",r   
  49.         print   
  50. print "--------\n"  
  51.   
  52.   
  53. #unicode korean  
  54. re_words=re.compile(u"[\uac00-\ud7ff]+")  
  55. m =  re_words.search(s,0)  
  56. print "unicode 韩文"  
  57. print "--------"  
  58. print m  
  59. print m.group()  
  60. print "--------\n"  
  61.   
  62.   
  63. #unicode japanese katakana  
  64. re_words=re.compile(u"[\u30a0-\u30ff]+")  
  65. m =  re_words.search(s,0)  
  66. print "unicode 日文 片假名"  
  67. print "--------"  
  68. print m  
  69. print m.group()  
  70. print "--------\n"  
  71.   
  72.   
  73. #unicode japanese hiragana  
  74. re_words=re.compile(u"[\u3040-\u309f]+")  
  75. m =  re_words.search(s,0)  
  76. print "unicode 日文 平假名"  
  77. print "--------"  
  78. print m  
  79. print m.group()  
  80. print "--------\n"  
  81.   
  82.   
  83. #unicode cjk Punctuation  
  84. re_words=re.compile(u"[\u3000-\u303f\ufb00-\ufffd]+")  
  85. m =  re_words.search(s,0)  
  86. print "unicode 标点符号"  
  87. print "--------"  
  88. print m  
  89. print m.group()  
  90. print "--------\n"  

 

几种主要非英文字符集的编码范围

下面是Google出现的几种主要非英文字符集的编码范围

主要非英文语系字符范围

范围编码说明
2E80~33FFh中日韩符号区收容康熙字典部首、中日韩辅助部首、注音符号、日本假名、韩文音符,中日韩的符号、标点、带圈或带括符文数字、月份,以及日本的假名组合、单位、年号、月份、日期、时间等。
3400~4DFFh中日韩认同文字扩充A区中日韩认同表意文字扩充A区,总计收容6,582个中日韩汉字。
4E00~9FFFh中日韩认同表意文字区中日韩认同表意文字区,总计收容20,902个中日韩汉字。
A000~A4FFh彝族文字区收容中国南方彝族文字和字根
AC00~D7FFh韩文拼音组合字区收容以韩文音符拼成的文字
F900~FAFFh中日韩兼容表意文字区总计收容302个中日韩汉字
FB00~FFFDh文字表现形式区收容组合拉丁文字、希伯来文、阿拉伯文、中日韩直式标点、小符号、半角符号、全角符号等。

比如需要匹配所有中日韩非符号字符,那么正则表达式应该是^[\u3400-\u9FFF]+$
理论上没错, 可是我到msn.co.ko随便复制了个韩文下来, 发现根本不对, 诡异
再到msn.co.jp复制了个’お’, 也不得行..
然后把范围扩大到^[\u2E80-\u9FFF]+$, 这样倒是都通过了, 这个应该就是匹配中日韩文字的正则表达式了, 包括我們臺灣省還在盲目使用的繁體中文
而关于中文的正则表达式, 应该是^[\u4E00-\u9FFF]+$, 和论坛里常被人提起的^[\u4E00-\u9FA5]+$很接近
需要注意的是论坛里说的^[\u4E00-\u9FA5]+$这是专门用于匹配简体中文的正则表达式, 实际上繁体字也在里面, 我用测试器测试了下’中華人民共和國’, 也通过了, 当然, ^[\u4E00-\u9FFF]+$也是一样的结果。

示例程序2

    那么我们很多时候如果要匹配的内容如果既有中文也有英文,比如我们要匹配一个可以由中文字母以及一些其他字符组成的标题,该怎么写呢,我么接着看下面的代码

[python]  view plain  copy
  1. #!coding:utf-8  
  2.   
  3. import re  
  4. import sys  
  5.   
  6.   
  7.   
  8. # 测试匹配中文信息  
  9. def TestReChinese( ):  
  10.     source  =   u"        数据结构模版----单链表SimpleLinkList[带头结点&&面向对象设计思想](C语言实现)"  
  11.     temp    =   source.decode('utf8')  
  12.     print "同时匹配中文英文"  
  13.     print "--------------------------"  
  14.     xx      =   u"([\w\W\u4e00-\u9fff]+)"  
  15.     pattern =   re.compile(xx)  
  16.     results =   pattern.findall(temp)  
  17.     for result in results:  
  18.         print result  
  19.     print "--------------------------"  
  20.     print   
  21.     print   
  22.     print "只匹配中文"  
  23.     print "--------------------------"  
  24.     xx      =   u"([\u4e00-\u9fff]+)"  
  25.     pattern =   re.compile(xx)  
  26.     results =   pattern.findall(temp)  
  27.   
  28.     for result in results:  
  29.         print result  
  30.     print "--------------------------"  
  31.   
  32. if __name__ == "__main__" :  
  33.     # 测试正则表达式  
  34.   
  35.     reload(sys)  
  36.     sys.setdefaultencoding("utf-8")  
  37.   
  38.     TestReChinese( )  

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值