01 用Python 实现一段语句分词,并记录每个单词出现的频率

1、问题背景

用Python实现一个分词的功能。即从一段英文中,提取所有单词(不重复),并记录单词出现的频率。这个功能是比较好做的,直接就判断单词的分隔符在哪里?比如“I love China!And you?”这句话空格肯定是单词之间的分隔符,另外一些标点符号也是单词之间的分隔符。

2、解决思路

这里有三种办法:
1)一个个字符遍历,遇到疑似分隔符的东西,就换成空格(便于后面文件读词)
2)直接在遍历的时候判断是不是分隔符
3)确定分隔符的位置,一般来讲start就是0,然后end去找,直到遇到不是字母的那个就是分隔符,依次类推

3、实现方法

本文采取的思路是方法一,代码如下:

    f=open("emma_lexicon\sentencce.txt",'r' )
    st=f.read()
    #st="I love China!and you?"
    
    #提取出非字符和数字以及下划线之外的字符
    lst2=[i for i in st if i.isalnum()==False and i!="_"] 
    
    #下面for用于将上面提取出来的分割符全部换成空格
    for k in lst2:
        #将st内的形式为k的分隔符,逐个替换为空格 
        #默认第三个参数为-1,即全部替换;0为不替换,1为只替换一次
        st=st.replace(k,' ') 

这样就把所有的非字母分隔符(严格来说是字母和数字,可以去查isalnum()这个函数的用法)的字符换成了空格。

用Python文件读功能取词,生成列表.代码如下:

st=st.strip().lower().split() #.split()用于将字符串分割为列表  lower()是用于将所有字母小写
    #print(st)
    dict={}#定义一个字典
    for j in st:
    	#如果键在列表里面,值加一,反之,生成键值
        if j in dict:
            dict[j]+=1
        else:
            dict[j]=1
    print(dict)
    #函数调用,用于将字典数据输出到文本文档里面
    learn_dictTurnToTxt(dict)
    f.close()

字典数据输出到文本文档的函数代码:

def learn_dictTurnToTxt(dict): #以字典作为参数
    f=open("emma_lexicon\dictTurnToTxt.txt",'w')
    for i in dict:
        #ljust(15)[:15],如果名称长度超过15个字符,则不会截断ljust.如果要以15个字符结尾,则可以对结果字符串进行切片。
        s=i+"	"+str(dict[i])+'\n'  
        f.write(s)
    f.close()

输出结果是:
在这里插入图片描述

  • 问题来了,输出格式不对齐,看着别扭,怎么让输出字符指定长度,不足补全空格(多出切片)呢?看效果:
    在这里插入图片描述
    具体实现办法见下面博客,附详细代码:

https://blog.csdn.net/qq_41286751/article/details/120961935

4、代码

本文实现分词全代码,粘贴即可立马跑起来。

def learn_dictTurnToTxt(dict): #以字典作为参数
    f=open("emma_lexicon\dictTurnToTxt.txt",'w')
    for i in dict:
        #ljust(15)[:15],如果名称长度超过15个字符,则不会截断ljust.如果要以15个字符结尾,则可以对结果字符串进行切片。
        #s=i+"	"+str(dict[i])+'\n' 
        s=i.ljust(15)[:15]+str(dict[i])+'\n'  
        f.write(s)
    f.close()

def learn_dictTurnToCSV(dict): #以字典作为参数
    f=open("emma_lexicon\dictTurnToCSV.csv",'w')
    for i in dict:
        #ljust(15)[:15],如果名称长度超过15个字符,则不会截断ljust.如果要以15个字符结尾,则可以对结果字符串进行切片。
        s=i.ljust(15)[:15]+str(dict[i])+'\n'  
        f.write(s)
    f.close()

def learn_splitWord():
    f=open("emma_lexicon\sentencce.txt",'r' )
    st=f.read()
    #st="I love China!and you?"
    lst2=[i for i in st if i.isalnum()==False and i!="_"] #提取出非字符和数字以及下划线之外的字符
    #下面for用于将上面提取出来的分割符全部换成空格
    for k in lst2:
        #将st内的形式为k的分隔符,逐个替换为空格 ,默认第三个参数为-1,即全部替换;0为不替换,1为只替换一次
        st=st.replace(k,' ') 
    
    st=st.strip().lower().split() #.split()用于将字符串分割为列表  lower()是用于将所有字母小写
    #print(st)
    dict={}#定义一个字典
    for j in st:
        if j in dict:
            dict[j]+=1
        else:
            dict[j]=1

    for a in dict:
        #s=a.ljust(15)[:15]+str(dict[a])+'\n'  
        #print("{:<15}".format(a),dict[a])
        s = (a+"               ")[:15]+str(dict[a])
        print(s)
    learn_dictTurnToTxt(dict)
    f.close()


learn_splitWord()

5、注意事项

注意emma_lexicon这是个文件夹,跟你创建的.py文件是在同一个目录下面,然后生成的文件是在这个文件夹emma_lexicon下面。注意前面取词用到了这个文件下面的sentencce.txt文本,其实就是随便一段英文短文。文本也提供在这里:

There are moments in life when you miss someone so much that you just want to pick them from your dreams and hug them for real! Dream what you want to dream;go where you want to go;be what you want to be,because you have only one life and one chance to do all the things you want to do.

  May you have enough happiness to make you sweet,enough trials to make you strong,enough sorrow to keep you human,enough hope to make you happy? Always put yourself in others’shoes.If you feel that it hurts you,it probably hurts the other person, too.

  The happiest of people don’t necessarily have the best of everything;they just make the most of everything that comes along their way.Happiness lies for those who cry,those who hurt, those who have searched,and those who have tried,for only they can appreciate the importance of people who have touched their lives.Love begins with a smile,grows with a kiss and ends with a tear.The brightest future will always be based on a forgotten past, you can’t go on well in lifeuntil you let go of your past failures and heartaches.

注意,文件之间的关系,贴图:
在这里插入图片描述
在这里插入图片描述
喜欢就点个赞叭!

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值