机器学习——英文特征提取,中文特征提取

本文展示了如何在Python环境下,利用sklearn库进行英文和中文的特征提取。通过DictVectorizer进行字典特征提取,CountVectorizer用于文本特征提取,并结合jieba进行中文分词。示例包括了从字典列表转换为特征矩阵,以及去除停用词(如“dislike”和“康辉”)的过程。
摘要由CSDN通过智能技术生成

环境:ubuntu20.10,python3.8

代码如下:

#coding:utf-8
from sklearn.feature_extraction import DictVectorizer, stop_words
from sklearn.feature_extraction.text import CountVectorizer
import jieba

def dict_demo():
    #""""
    #字典特征提取
    #:return:
    #""""
    data = [{"city":"北京","temperature":100},
            {"city":"上海","temperature":60},
            {"city":"深圳","temperature":30}]
    # 字典特征提取
    # 1、实例化
    #transfer = DictVectorizer()
    transfer = DictVectorizer(sparse=False)
    
    # 2、调用fit_transform
    trans_data = transfer.fit_transform(data)
    
    print("特征名字是:\n",transfer.get_feature_names())
    print(trans_data)

def english_count_text_demo():
    #"&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值