Python—对乳腺癌数据集预处理和分类

题目:

已知 UCI 数据集 breast-cancer-wisconsin,breast-cancer-wisconsin 是肿瘤学家研究切片组织,描述组织各种特征决定肿瘤是良性还是恶性的数据集,数据集共有699个样本个数,有11个特征,第一个为id number,最后一个为class(有无癌症的分类),该数据集包含若干个缺失数据。要求:
(1)首先对缺失数据进行处理,并说明处理的方法。
(2)随机选取数据集的 70%的数据构成训练集,剩余30%数据构成测试集,并应用逻辑回归算法对测试集进行分类,采用Accuracy作为评估算法的标准。
(3)在(1)(2)的基础上采用5-折交叉验证方式进行试验,得到实验的Accuracy值。

步骤:

# -*- coding: utf-8 -*-
#####一:作业提交#####
import pandas as pd 
# from scipy.interpolate import lagrange

inputfile='C:/Users/PEXYGGJF/Desktop/ly/text/breast-cancer-wisconsin.csv'
outputfile='C:/Users/PEXYGGJF/Desktop/ly/work/ly.csv'

data=pd.read_excel(inputfile)
data['Bare Nuclei'][(data['Bare Nuclei']<0) | (data['Bare Nuclei']>11)]=None


import pandas as pd
import numpy as np
 
column_names = ['Sample code number','Clump Thickness','Uniformity of Cell Size','Uniformity of Cell Shape','Marginal Adhesion','Single Epithelial Cell Size','Bare Nuclei','Bland Chromatin','Normal Nucleoli','Mitoses','Class']
data = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin//breast-cancer-wisconsin.data',names=column_names)

data = data.replace(to_replace='?',value=np.nan)    #非法字符的替代,缺失值处理
data = data.dropna(how='any')        #去掉空值,any:出现空值行则删除
print(data.shape)
print(data.head())

##################################################################################
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import classification_report
# from sklearn.externals 
import joblib

import pandas as pd
import numpy as np



def logistic():
    """
    逻辑回归做二分类进行癌症预测(根据细胞的属性特征)
    
    """
    # 构造列标签名字,一共11个
    column = ['Sample code number','Clump Thickness', 'Uniformity of Cell Size',
              'Uniformity of Cell Shape','Marginal Adhesion', 'Single Epithelial Cell Size',
              'Bare Nuclei','Bland Chromatin','Normal Nucleoli','Mitoses','Class']

    # 读取数据
    data = pd.read_csv("E:/文档资料/python数据分析和数据挖掘/work/python report/breast-cancer-wisconsin.csv",
                       engine='python',names=column)

    print(data)

    # 缺失值进行处理
    data = data.replace(to_replace='?', value=np.nan)

    data = data.dropna()

    # 进行数据的分割,1到10列为特征值,11列为目标值
    x_train, x_test, y_train, y_test = train_test_split(data[column[1:10]], data[column[10]], test_size=0.25)

    # 进行标准化处理
    std = StandardScaler()

    x_train = std.fit_transform(x_train)
    x_test = std.transform(x_test)

    # 逻辑回归预测
    lg = LogisticRegression(C=1.0)

    lg.fit(x_train, y_train)

    print(lg.coef_)

    y_predict = lg.predict(x_test)

    print("准确率:", lg.score(x_test, y_test))

    print("召回率:", classification_report(y_test, y_predict, labels=[2, 4], target_names=["良性", "恶性"]))

    #保存训练好的模型
    joblib.dump(lg, "./lg.pkl")
    
    #加载模型,预测自己的数据
    model = joblib.load("./lg.pkl")
    
    # 读取数据,数据为相同格式下需要预测的数据。和前文七、(1)(2)的操作一样
    data = pd.read_csv("E:/文档资料/python数据分析和数据挖掘/work/python report/new-breast-cancer-wisconsin.csv",
                       engine='python',names=column)

    xx_test= data[column[1:10]]  #获取特征值1 到 10 列,
    xx_test = std.transform(xx_test)
    
    yy_predict = model.predict(xx_test)

    print("保存的模型预测的结果:", yy_predict)

if __name__ == "__main__":
    logistic()
    


# -*- coding:utf-8 -*-
#####二:较标准呈现#####
import numpy as np   #导入numpy库
import random        #导入random库,产生随机数
import csv           #导入csv格式文件

def loadDataSet():            #加载数据,标签,特征值
    trainMat = [];data0=[]    #训练集数组,测试集数组
    data = csv.reader(open('E:/pywork/test/sy-3/breast-cancer-wisconsin.csv'))
    for line in data:         #读入每一行数据,判断数据集中是否有“?”,对缺失值进行处理
        if "?" in line:
            continue
        lineArr = []
        if line[0] != '':     
            for i in range(2, 12):                       #读取第二列到第十一列的标签的每一行数据
                lineArr.append(float(line[i])) 
            data0.append(lineArr)                        #添加数据
    m ,n = np.shape(data0)
    times = int(m*0.7)                                   #70%分割线
    for i in range(times):
        randIndex = int(random.uniform(0,len(data0)))    #产生随机数
        trainMat.append(data0[randIndex])
        del(data0[randIndex])
    testMat = data0[:]
    return trainMat, testMat                             #返回测试集,训练集

def depart(dataset):
    dataMat =[] ; labelMat = []
    for line in dataset:
        lineArr = []
        for i in range(9):
            lineArr.append(line[i])
        dataMat.append(lineArr)  
        labelMat.append(line[9])
    return  dataMat,labelMat

def sigmoid(inX):                                                #S函数
    return 1.0/(1+np.exp(-inX))

def stocGradAscent1(dataMatrix,LabelMat,numIter=500):            #随机梯度上升算法
    m,n = np.shape(dataMatrix)
    weights = np.ones(n)
    for j in range(numIter):
        dataIndex =list( range(m))
        for i in range(m):      
            alpha = 4/(1.0+j+i)+0.01                             #每次迭代时更新alpha值
            randIndex = int(random.uniform(0,len(dataIndex)))    #随机选取更新
            h = sigmoid(sum(dataMatrix[randIndex]*weights))
            error = LabelMat[randIndex] - h
            weights = weights + alpha * error * dataMatrix[randIndex]
            del(dataIndex[randIndex])
    return weights

def classifyVector(inX,weights):                                 #逻辑回归分类函数,inX特征向量,weights回归系数
    prob = sigmoid(sum(inX*weights))  
    if prob > 0.5:return 2.0
    else:return 4.0

def colicTest():                                                 #打开测试集和训练集,并对数据进行格式化处理
    trainMat, testMat = loadDataSet()
    trainSet, trainLabel = depart(trainMat)                      #导入类别标签为最后一项
    trainWeights = stocGradAscent1(np.array(trainSet),trainLabel,500)              #使用随机梯度上升算法计算回归系数向量
    rightCount = 0; numTestVec = 0.0
    for line in testMat:                                         #格式化测试集
        numTestVec += 1.0
        lineArr = []
        for i in range(9):                                       #导入特征值,有9个特征
            lineArr.append(float(line[i]))
        if int(classifyVector(np.array(lineArr),trainWeights)) == int(line[9]):    #使用训练集计算出回归系数对测试集进行分类,并对比测试集的类别标签,计算错误数量
            rightCount += 1
    rightCount = (float(rightCount)/numTestVec)                  #正确率
    print ("The right rate of this test is: %f" % rightCount)
    return rightCount


def multiTest():                                                 #colicTest函数10次,取正确率平均值
    numTests = 10; rightSum = 0.0
    for k in range(numTests):
        rightSum += colicTest()
    print ("after %d iterations the average error rate is: %f" % (numTests, rightSum/float(numTests)))


multiTest()
  • 11
    点赞
  • 97
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
好的,针对你的问题,我可以给你提供以下的思路和代码示例: 1. 数据集介绍 乳腺癌数据集是一个二分类问题,其中包含了569个样本,每个样本包含了30个特征,这些特征是通过数字化图像分析计算得到的,这些特征可以用来分类诊断乳腺肿瘤是良性还是恶性。 2. 数据预处理 首先,我们需要对数据进行一些预处理,这些预处理步骤包括:数据归一化、数据集划分等。这里我们用sklearn库提供的函数来完成这些预处理步骤: ```python from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler # 加载数据集 data = load_breast_cancer() # 数据归一化 scaler = StandardScaler() X = scaler.fit_transform(data.data) y = data.target # 数据集划分 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) ``` 3. 模型构建 接下来,我们可以构建一个多层感知机模型,这里我们使用Keras库来构建模型: ```python from keras.models import Sequential from keras.layers import Dense # 构建模型 model = Sequential() model.add(Dense(30, input_dim=30, activation='relu')) model.add(Dense(15, activation='relu')) model.add(Dense(1, activation='sigmoid')) # 编译模型 model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) ``` 4. 模型训练 模型构建好后,我们可以对模型进行训练: ```python # 模型训练 model.fit(X_train, y_train, epochs=100, batch_size=32, validation_data=(X_test, y_test)) ``` 5. 模型评估 最后,我们可以对模型进行评估: ```python # 模型评估 score = model.evaluate(X_test, y_test, verbose=0) print("Test loss:", score[0]) print("Test accuracy:", score[1]) ``` 这样,我们就可以使用多层感知机对乳腺癌数据集进行分类了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Y_ni

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值