机器学习之文本特征抽取

import pandas as pd  
import numpy as np
from sklearn.feature_extraction.text import CountVectorizer

def work():
    #连接mysql 
    con = pymysql.connect(host="127.0.0.1",user="root",password="密码",db="数据库") 
    #查询
    df = pd.read_sql("select * from 表",con) 
    # 取出name字段的所有数据   转换成numpy类型 再转成list
    content = np.array(df['name']).tolist()
    list_a=[]
    for i in content:
        #遍历数据  将每条内容用jieba分词
        con =  ' '.join(jieba.lcut(i))
        #将分词后的数据存进列表
        list_a.append(con)
    print(list_a)

    #  初始化 CountVectorizer      stop_words 添加停用词 
    cv = CountVectorizer(stop_words=['北京','兼职','方向','安卓','工程师','架构师']) 
    
    # 处理数据来自jieba分词后的内容
    data = cv.fit_transform(list_a)
    
    #抽取特征类别  并对内容去重
    print(cv.get_feature_names())
    
    #查看抽取结果
    print(data.toarray())
    
work()



未处理时输出效果

在这里插入图片描述


处理后的效果

每一排的7个数字 对应 7个关键字。拿第一排举例,第四个是1,这个1代表关键字的python关键字出现1次

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值