人工智能(文本特征数据抽取)

文本数据特征抽取

sklearn.feature_extraction.text.Countverctorizer

Countverctorizer语法

  • Countverctorizer()
  • 返回词频矩阵
  • Countverctorizer.fit_transform(X)
  • X:文本或或包含文本对象的可迭代对象
  • 返回值:返回sparse矩阵
  • Countverctorizer.inverse_transform(X)
  • X:array数组或者sparse矩阵
  • 返回值:转换之前的数据格式
  • COuntvectorzer_feature_names()
  • 返回值:单词列表

代码

from sklearn.feature_extraction import DictVectorizer
from sklearn.feature_extraction.text import CountVectorizer
def dictvet():
    # mydict=DictVectorizer(sparse=False)
    # # 调用fit_transform
    # data=mydict.fit_transform([{'city':'上海','temp':37},{'city':'北京','temp':39},{'city':'深圳','temp':38}])
    # print(data)
    # print(mydict.get_feature_names())
    cv=CountVectorizer()
    data=cv.fit_transform(["life is wanderful","life is beautiful","life is bad"])
    print(cv.get_feature_names())
    print(data.toarray())
    return  None
def main():
    dictvet()

if __name__ == '__main__':
    main()

运行结果

运行结果

结果分析

  1. 统计所有文章当中所有的词,重复的只做一次 词的列表 对单个英文字母不进行分类
  2. 对于中文,不适用与特征分析,无法单词抽取中文解析运行结果
    解决方案:在中间打上空格
  • 下载 -->pip3 install jiebe
  • 使用–> import jieba jieba.cut(“文本字符串”)
  • 返回值–>词语生成器

对中文特征值化案例

代码:

def dictword():
    word1="君子在下位则多谤,在上位则多誉;小人在下位则多誉,在上位则多谤。"
    word2="你若要喜爱你自己的价值,你就得给世界创造价值。"
    word3="如果我们想交朋友,就要先为别人做些事——那些需要花时间、体力、体贴、奉献才能做到的事"
    list_1=list(jieba.cut(word1))
    list_2=list(jieba.cut(word2))
    list_3=list(jieba.cut(word3))
    jieba_1=" ".join(list_1)
    jieba_2=" ".join(list_2)
    jieba_3=" ".join(list_3)
    cv=CountVectorizer()
    data=cv.fit_transform([jieba_1,jieba_2,jieba_3])
    print(cv.get_feature_names())
    print(data.toarray())

运行结果:
运行结果

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值