红酒产地预测问题

一、问题描述

红酒产地预测问题的任务是:根据红酒的各项指标,鉴定红酒的产地。
数据:sklearn工具库。
样本数178,每个样本表示1瓶红酒,13个特征,如红酒颜色、蒸馏度等。
类标签:3个。
导入数据,利用Softmax回归算法预测红酒产地,并输出accuracy,画出ROC曲线。

二、实验目的

利用Softmax回归算法预测红酒产地,并输出accuracy,画出ROC曲线。

三、实验内容

数据导入

#导入数据
from sklearn.datasets import load_wine

rwine = load_wine()               #导入红酒数据

数据预处理

#这里的m,n为维度,数据是178*13的矩阵
m=178
n = 13
X = rwine.data
y = rwine.target

c = rwine["target"].astype(np.int)
y = convert_to_vectors(c)

print(rwine.feature_names)
print(rwine.target_names)
print(X.shape)
print(y.shape)

X_train, X_test, y_train, y_test, c_train, c_test = train_test_split(X, y, c, test_size=0.2)
X_train = process_features(X_train)
X_test = process_features(X_test)

算法描述

1、Softmax回归算法
Logistic回归模型:2元分类问题。
Softmax回归模型:k元分类问题。
在这里插入图片描述

Softmax回归是以Softmax函数为模型假设,且以k元交叉熵为目标函数的经验损失最小化算法。

import numpy as np

def softmax(scores):
    e = np.exp(scores)
    s = e.sum(axis=1)
    for i in range(len(s)):
        e[i] /= s[i]
    return e
    
class SoftmaxRegression:
    def fit(self, X, y, eta_0=50, eta_1=100, N=1000):
        m, n = X.shape
        m, k = y.shape
        w = np.zeros(n * k).reshape(n,k) 
        self.w = w
        for t in range(N):
            i = np.random.randint(m)
            x = X[i].reshape(1,-1)
            proba = softmax(x.dot(w))
            g = x.T.dot(proba - y[i])
            w = w - eta_0 / (t + eta_1) * g 
            self.w += w
        self.w /= N
    
    def predict_proba(self, X):
        return softmax(X.dot(self.w))
    
    def predict(self, X):
        proba = self.predict_proba(X)
        return np.argmax(proba, axis=1)

2、LogisticRegression算法
梯度下降法求解Logistic 回归问题,Logistic回归的目标函数(交叉熵)是一个凸函数。交叉熵梯度,经过运算,以下为矩阵表示:
在这里插入图片描述

import numpy as np

def sigmoid(scores):
        return 1 / (1 + np.exp(-scores))
    
class LogisticRegression:
    def fit(self, X, y, eta_0=10, eta_1=50, N=1000):
        m, n = X.shape 
        w = np.zeros((n,1)) 
        self.w = w
        for t in range(N):
            i = np.random.randint(m)
            x = X[i].reshape(1,-1)
            pred = sigmoid(x.dot(w))
            g = x.T * (pred - y[i])
            w = w - eta_0 / (t + eta_1) * g  
            self.w += w
        self.w /= N
    
    def predict_proba(self, X):
        return sigmoid(X.dot(self.w))
    
    def predict(self, X):
        proba = self.predict_proba(X)
        return (proba >= 0.5).astype(np.int)

主要代码

1、调用自定义的Softmax回归算法,解决红酒预测问题。

model = SoftmaxRegression()
model.fit(X_train, y_train, eta_0=50, eta_1=100, N=5000)
c_pred = model.predict(X_test)
accuracy = accuracy_score(c_test, c_pred)
print("accuracy = {}".format(accuracy))

2、调用sklearn的LogisticRegression算法,解决红酒预测问题。

# 调用LogisticRegression算法
model1 = LogisticRegression()
model1.fit(X_train, y_train, eta_0=10, eta_1=50, N=500)
proba = model1.predict_proba(X_test)
roc.plot_roc_curve(proba, y_test)

四、实验结果及分析

利用Softmax回归算法预测红酒产地,并输出accuracy,画出ROC曲线。
在这里插入图片描述

在这里插入图片描述

五、遇到的问题和解决方法

以上运行的环境为python3.6
这是项目目录
在这里插入图片描述

如果需要实验报告和资源:
就当给我买个冰棍了!!!
https://download.csdn.net/download/m0_61504367/85153794
在这里插入图片描述
在这里插入图片描述

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

汪程序猿

就当请我吃顿饭

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值