机器学习之分类算法1

机器学习之分类算法1

k-近邻算法(KNN)

定义:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近的样本中的大多数属于某一个类别),则该样本属于这个类别
ps:k取值很小时容易受异常点影响,取值很大时容易受k值数量影响
优点:易于实现,无需估计参数,无需训练
缺点:懒惰算法,内存开销大;必须指定k值,k值指定不当则不能保证精度
使用场景:小数据场景,几千到几万样本
加快搜索速度–基于算法改进的KDTree(sklearn.neighbors.KNeighborsClassifier(n_neighbors=5, algorithm=‘auto’))其中algorithm可为auto、ball_tree、kd_tree、brute,auto是尝试根据传递给fit的值来确定合适的方法

朴素贝叶斯

贝叶斯公式:
P ( C ∣ F 1 , F 2... ) = P ( F 1 , F 2 , . . . ∣ C ) P ( C ) P ( F 1 , F 2 , . . . ) P(C|F1,F2...) = \frac {P(F1,F2,...|C)P(C)} {P(F1,F2,...)} P(CF1,F2...)=P(F1,F2,...)P(F1,F2,...C)P(C)
拉普拉斯平滑:
P ( F ∣ C ) = N i + a N + a m P(F|C) = \frac {Ni+a} {N+am} P(FC)=N+amNi+a
a为指定系数一般为1,m为训练文档中统计出的特征词个数
拉普拉斯平滑用以解决贝叶斯中涉及的词频为0的情况

优点:有稳定分类效率;对缺失数据不敏感,常用于文本分类;分类速度快精确度高
缺点:由于使用了样本属性独立性的假设,如果样本属性相关联时效果不好

代码实现

from sklearn.neighbors import KNeighborsClassifier
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.datasets import fetch_20newsgroups
from sklearn.naive_bayes import MultinomialNB

def knncls():
    data = pd.read_csv("~.csv")
    print(data.head())
    data.query("x>1.0 & x<1.25")
    time_value = pd.to_datetime(data['time'], unit='s')
    print(time_value)
    data['day'] = time_value.day
    data.drop(['time'], axis=1) #列
    print(data)
    place_count = data.groupby('place_id').count()
    tf = place_count[place_count.row_id > 3].reset_index()
    data = data[data['place_id'].isin(tf.place_id)]
    y= data['place_id']
    x= data.drop(['place_id'], axis=1)
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
    knn = KNeighborsClassifier(n_neighbors=5)
    knn.fit(x_train, y_train)
    y_predict = knn.predict(x_test)
    print('准确率', knn.score(x_test, y_test))
    return

def naivebayes():
    news = fetch_20newsgroups(subset='all')
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.25)
    tf = TfidfVectorizer()
    x_train = tf.fit_transform(x_train)
    print(tf.get_feature_names())
    x_test = tf.fit_transform(x_test)
    mlt = MultinomialNB(alpha=1.0)
    print(x_train.toarray())
    mlt.fit(x_train, y_train)
    y_predict = mlt.predict(x_test)
    print('准确率为', mlt.score(x_test, y_test))
    return

naivebayes()

混淆矩阵

在这里插入图片描述

精确率和召回率

在这里插入图片描述

F1-score

反映模型稳健性
F 1 = 2 T P 2 T P + F N + F P = 2 ∗ P r e c i s i o n ∗ R e c a l l P r e c i s i o n + R e c a l l F1 = \frac {2TP} {2TP+FN+FP} = \frac {2*Precision*Recall} {Precision+Recall} F1=2TP+FN+FP2TP=Precision+Recall2PrecisionRecall

交叉验证

在给定的建模样本中,拿出大部分样本进行建模型,留小部分样本用刚建立的模型进行预报,并求这小部分样本的预报误差,记录它们的平方加和
在这里插入图片描述

超参数搜索-网格搜索

通常情况下,很多参数需要手动指定(如k-近邻算法中的k值),这种叫超参数。但手动过程繁杂,所以每组超参数都用交叉验证来评估

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值