“达观杯”文本智能处理挑战赛-任务四

一、逻辑回归(LR)模型

1. 逻辑回归(LR)原理

LR模型是基于线性回归,并把特征进行线性组合,再把组合的结果通过一层sigmoid函数映射成结果是1或是0的概率。当目标变量是分类变量时,才会考虑逻辑回归,并且主要用于两分类问题。

2. 代码实现

import pickle
from sklearn.linear_model.logistic import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
fp = open('data_w_tfidf.pkl', 'rb')
X_train,y_train=pickle.load(fp)
X_train,X_test,y_train,y_test=train_test_split(x_train,y_train,test_size=0.3,random_state=1)
lr = LogisticRegression(C=120,dual=True)
lr.fit(x_train,y_train)
y_predict=lr.predict(x_test)
print("f值:{:.12f}".format(f1_score(y_test,y_predict,average='micro'))

在这里插入图片描述

二、支持向量机(SVM) 模型

1. 逻辑回归(LR)原理

支持向量机(SVM)是一类按监督学习方式对数据进行二元分类(binary classification)的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面。它是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力。

2. 代码实现

import pickle
from sklearn.svm import LinearSVC
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
fp = open('data_w_tfidf.pkl', 'rb')
x_train,y_train=pickle.load(fp)
x_train,x_test,y_train,y_test=train_test_split(x_train,y_train,test_size=0.3, random_state=1)
lr = LinearSVC(C=5, dual=False)
lr.fit(x_train,y_train)
y_predict=lr.predict(x_test)
print("f值:{:.12f}".formatf(1_score(y_test,y_predict,average='micro'))

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值