头歌(第五章 机器学习基本模型与算法在线实验闯关)

头歌(第五章 机器学习基本模型与算法在线实验闯关)

第1关:缺失值填充

任务描述
本关任务:读取“银行贷款审批数据.xlsx”表,自变量为x1-x15,决策变量为y(1-同意贷款,0-不同意贷款),其中x1-x6为数值变量,x7-x15为名义变量,请对x1-x6中存在的缺失值用均值策略填充,x7-x15用最频繁值策略填充。

#********** Begin **********#
# 读取“银行贷款审批数据.xlsx”表,自变量为x1~x15,决策变量为y(1-同意贷款,0-不同意贷款)
# 其中x1~x6为数值变量,x7~x15为名义变量
# 请对x1~x6中存在的缺失值用均值策略填充,x7~x15用最频繁值策略填充
# 最后返回填充处理后的X(即x1~x15),以及决策变量Y(即y)
import pandas as pd
def return_values():
    df = pd.read_excel("银行贷款审批数据.xlsx")
    df.fillna(df.mean(), inplace=True)
    for col in df.columns[6:]: 
        df[col].fillna(df[col].mode()[0], inplace=True)
    X = df.drop(columns=['y']) 
    Y = df['y'] 
    
    return X, Y
#********** End **********#

第2关:数据标准化

任务描述
本关任务:在第一关的基础上,对x1 ~ x6数值型变量作均值-方差标准化处理,需要注意的是x7~x15名义变量不需要作标准化处理。

#********** Begin **********#
#在上一关的基础上,对自变量X中的数值变量(x1~x6)作均值-方差标准化处理
# 需要注意的是x7~x15名义变量不需要作标准化处理
# 返回结果X1,数据结构为数组形式
# X1中含有标准化后的x1~x6和未标准化的x7~x15
import pandas as pd
from sklearn.preprocessing import StandardScaler
import numpy as np
def return_values():
    df = pd.read_excel("银行贷款审批数据.xlsx")
    df.fillna(df.mean(), inplace=True)
    for col in df.columns[6:]:
        df[col].fillna(df[col].mode()[0], inplace=True)
    numerical_cols = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6']
    categorical_cols = ['x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'x14', 'x15']
    scaler = StandardScaler()
    df[numerical_cols] = scaler.fit_transform(df[numerical_cols])
    X1 = df[numerical_cols + categorical_cols].values
    return X1
#********** End **********#

第3关:支持向量机分类模型及其应用

任务描述
本关任务:基于关卡2基础上,取数据集前600条记录作为训练数据,后90条记录作为测试数据,构建支持向量机模型,输出其模型准确率和预测准确率。

#********** Begin **********#
#在上一关基础,对经过缺失值填充、数值变量标准化后的数据集,取前600条记录作为训练数据,后90条记录作为测试数据
#构建支持向量机模型,返回计算结果模型准确率rv和预测准确率r
def return_values():
    import numpy as np
    X1=np.load('X1.npy') #经过缺失值填充、数值变量标准化后的数据集,numpy数组690*15
    Y=np.load('Y.npy')   #因变量,numpy数组,690个元素
    from sklearn.svm import SVC
    x1 = X1[:600, :]
    y1 = Y[:600]
    x2 = X1[600:, :]
    y2 = Y[600:]
    clf = SVC(kernel='rbf')
    clf.fit(x1, y1)
    rv = clf.score(x1, y1)
    r = clf.score(x2, y2)
    return(rv,r)
#********** End **********#

第4关:逻辑回归模型及其应用

任务描述
本关任务:以澳大利亚信贷批准数据集为本关数据集,划分前600为训练数据集,后90数据为测试数据集,利用逻辑回归模型预测及输出准确率。

#********** Begin **********#
#在上一关基础,对经过缺失值填充、数值变量标准化后的数据集,取前600条记录作为训练数据,后90条记录作为测试数据
#构逻辑回归模型,返回计算结果模型准确率rv和预测准确率r
def return_values():
    import numpy as np
    X1=np.load('X1.npy') #经过缺失值填充、数值变量标准化后的数据集,numpy数组690*15
    Y=np.load('Y.npy')   #因变量,numpy数组,690个元素
    from sklearn.svm import SVC
    x1 = X1[:600, :]
    y1 = Y[:600]
    x2 = X1[600:, :]
    y2 = Y[600:]
    clf = SVC(kernel='rbf')
    clf.fit(x1, y1)
    rv = clf.score(x1, y1)
    r = clf.score(x2, y2)
    return rv, r
#********** End **********#

第5关:神经网络分类模型及其应用

任务描述
本关任务:编写利用神经网络解决分类问题和预测问题的程序

#********** Begin **********#
#在上一关基础,对经过缺失值填充、数值变量标准化后的数据集,取前600条记录作为训练数据,后90条记录作为测试数据
#构建神经网络分类模型,返回计算结果模型准确率rv和预测准确率r
def return_values():
    import numpy as np
    X1=np.load('X1.npy') #经过缺失值填充、数值变量标准化后的数据集,numpy数组690*15
    Y=np.load('Y.npy')   #因变量,numpy数组,690个元素
    from sklearn.neural_network import MLPClassifier
    x = X1[:600, :]
    y = Y[:600]
    x1 = X1[600:, :]
    y1 = Y[600:]

    clf = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(5, 2), random_state=0, max_iter=1000)
    clf.fit(x, y)
    rv = clf.score(x, y)
    R = clf.predict(x1)
    Z = R - y1
    r = len(Z[Z == 0]) / len(Z)
    return rv, r
#********** End **********#

第6关:线性回归模型及其应用

任务描述
在发电场中电力输出(PE)与AT(温度)、V(压力)、AP(湿度)、RH(压强)有关,相关测试数据见“发电场数据.xlsx”文件,请完成以下任务:1)利用线性回归分析命令,求出PE与AT、V、AP、RH之间的线性回归关系式系数向量(包括常数项)和拟合优度(判定系数),并在命令窗口输出;2)今有某次测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,试利用构建的线性回归模型预测其PE值。

#**********Begin**********#
#在发电场中电力输出(PE)与AT(温度)、V(压力)、AP(湿度)、RH(压强)有关,
# 相关测试数据见“发电场数据.xlsx”文件,请完成以下任务:
# 1)求出PE与AT、V、AP、RH之间的线性回归关系式系数向量,用列表b表示,其元素依次为常数项、AT回归系数、V回归系数、AP回归系数、RH回归系数。
# 2)求出回归方程的拟合优度(判定系数),用变量r表示
# 3)今有某次测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,试利用构建的线性回归模型预测其PE值
def return_values():
    import pandas as pd
    import numpy as np  
    from sklearn.linear_model import LinearRegression as LR  
    data=pd.read_excel('发电场数据.xlsx')
    x=data.iloc[:,0:4].values
    y=data.iloc[:,4].values
    
    lr = LR()    #创建线性回归模型类  
    lr.fit(x, y) #拟合  
    #判定系数
    r=lr.score(x,y) 
    #系数
    c_x=lr.coef_    
    #常系数     
    c_b=lr.intercept_  
    b=[c_b,c_x[0],c_x[1],c_x[2],c_x[3]]
    #对数据进行预测
    x1=np.array([28.4,50.6,1011.9,80.54]).reshape(1,4)  
    PE=lr.predict(x1)  
 
    return(b,r,PE)
#**********End**********#

第7关:神经网络回归模型及其应用

任务描述
基于5.6的数据集,构建神经网络回归模型,输出其模型准确率,并针对测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,预测其PE值。

# -*- coding: utf-8 -*-
#基于上一关的数据集,构建神经网络回归模型,返回计算结果模型准确率r,
#并针对测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,预测其PE值。
def return_values():
    from sklearn.neural_network import MLPRegressor 
    import numpy as np
    import pandas as pd
    data=pd.read_excel('发电场数据.xlsx')
    x=data.iloc[:,0:4].values
    y=data.iloc[:,4].values
    clf = MLPRegressor(solver='lbfgs', alpha=1e-5,hidden_layer_sizes=8, random_state=1) 
    clf.fit(x, y)
    r=clf.score(x,y)
    x1=np.array([28.4,50.6,1011.9,80.54]).reshape(1,4)
    PE=clf.predict(x1)
    return(r,PE)

第8关:支持向量机回归模型及其应用

任务描述
本关任务:基于关卡6的数据集,构建支持向量机回归模型,输出其拟合优度,并针对测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,预测其PE值。(备注:需对采用的核函数进行说明,比如高斯核、线性核、多项式核或者sigmoid核等)

# -*- coding: utf-8 -*-
#基于上一关的数据集,构建支持向量机回归模型(采用线性核函数),返回计算结果模型的拟合优度r,
#并针对测试数据AT=28.4、V=50.6、AP=1011.9、RH=80.54,预测其PE值。
def return_values():
    import numpy as np
    import pandas as pd
    from sklearn import svm
    data=pd.read_excel('发电场数据.xlsx')
    x=data.iloc[:,0:4].values
    y=data.iloc[:,4].values
    kernel = ['linear','poly','rbf','sigmoid']
    list1 = [] #保存针对训练数据获得的模型准确度
    list2 = [] #保存预测值
    for i in kernel:
        clf = svm.SVR(kernel=i)
        clf.fit(x, y)
        x1 = np.array([28.4,50.6,1011.9,80.54]).reshape(1,4)
        list1.append(clf.score(x,y))
        list2.append(clf.predict(x1))
    result = {'核函数':kernel,'模型准确度':list1,'预测值':list2}
    result = pd.DataFrame(result)
    r=result['模型准确度'].max()
    PE=result['预测值'].min()
    return(r,PE)

第9关:基于主成分分析的综合评价

任务描述
本关任务:读取“农村居民人均可支配收入来源2016.xlsx”数据表,其中数据来源于2016年《中国统计年鉴》,对表中给出的我国内陆31个地区做主成分分析,并基于主成分进行综合排名,输出排名结果。

#********** Begin **********#
#读取“农村居民人均可支配收入来源2016.xlsx”数据表,其中数据来源于2016年《中国统计年鉴》,
#首先,对指标数据进行均值方差标准化处理
#其次,其次对标准化处理后的指标数据作主成分分析,要求提前累计贡献率在95%以上
#再次,基于提取的主成分计算综合得分,综合得分=提取的各主成分与对应贡献率之和
#最后,基于综合得分获得各地区的排名,得分按从高到低排序,用一个序列Rs来表示,其中index为地区名称,值为综合得分
def return_values():
    import pandas as pd
    from sklearn.preprocessing import StandardScaler
    from sklearn.decomposition import PCA   
    Data=pd.read_excel('农村居民人均可支配收入来源2016.xlsx')
    X=Data.iloc[:,1:]
    R=X.corr()
    scaler = StandardScaler()
    scaler.fit(X) 
    X=scaler.transform(X)
 
    pca=PCA(n_components=0.95)
    pca.fit(X)
    Y=pca.transform(X)
    tzxl=pca.components_              
    tz=pca.explained_variance_           
    gxl=pca.explained_variance_ratio_    #返回主成分方差百分比(贡献率)
    for i in range(0,4):
        Y[i]=sum(X[i,:]*tzxl[0,:])
    F=gxl[0]*Y[:,0]+gxl[1]*Y[:,1]+gxl[2]*Y[:,2]  #综合得分=各个主成分×贡献率之和
    dq=list(Data['地区'].values)         #提取地区
    Rs=pd.Series(F,index=dq)             #以地区作为index,综合得分为值,构建序列
    Rs=Rs.sort_values(ascending=False) #按综合得分降序进行排序
 
    return Rs
 
#********** End **********#

第10关:K均值聚类算法及其应用

任务描述
本关任务:读取“农村居民人均可支配收入来源 2016.xlsx”数据表,其中数据来源于2016 年《中国统计年鉴》,对表中给出的我国内陆 31 个地区做 K-均值聚类分析(K=4),并在控制台中输出聚类结果和各个类的聚类中心。运用K-均值聚类算法解决实际问题。

#********** Begin **********#
#读取“农村居民人均可支配收入来源2016.xlsx”数据表,数据来源于2016年《中国统计年鉴》,
# 首先,对指标数据作均值-方差标准化处理,注意首列为地区名称,不用标准化
# 其次,对标准化后的指标数据,作K-均值聚类分析(K=4),
# 最后,给出聚类分析结果,用一个序列Fs来表示,其中index为地区名称,值为所属类别的标签值(0、1、2、3)。
def return_values():
    #导入K-均值聚类模块KMeans。
    from sklearn.cluster import KMeans
    from sklearn.preprocessing import StandardScaler
    import pandas as pd
    import numpy as np
    Data=pd.read_excel('农村居民人均可支配收入来源2016.xlsx')
    X=Data.iloc[:,1:]
    #对X做均值-方差规范化处理
    scaler = StandardScaler()
    scaler.fit(X) 
    X=scaler.transform(X)
    #利用KMeans创建K-均值聚类对象model。
    model = KMeans(n_clusters = 4, random_state=0, max_iter = 500) 
    #调用model对象中的fit()方法进行拟合训练。
    model.fit(X)
    #获取model对象中的labels_属性,可以返回其聚类的标签。
    c=model.labels_#聚类结果
    jlzx = model.cluster_centers_#各个类的聚类中心
    Fs=pd.Series(c,index=Data['地区'])#地区
 
    return Fs
#********** End **********#

第11关:布尔数据集构建

任务描述
将以下超市的购买记录:
I1:西红柿、排骨、鸡蛋、毛巾、水果刀、苹果
I2:西红柿、茄子、水果刀、香蕉
I3:鸡蛋、袜子、毛巾、肥皂、苹果、水果刀
I4:西红柿、排骨、茄子、毛巾、水果刀
I5:西红柿、排骨、酸奶、苹果
I6:鸡蛋、茄子、酸奶、肥皂、苹果、香蕉
I7:排骨、鸡蛋、茄子、水果刀、苹果
I8:土豆、鸡蛋、袜子、香蕉、苹果、水果刀
I9:西红柿、排骨、鞋子、土豆、香蕉、苹果
转换为布尔数据集,其中数据集用数据框来表示,数据框中的字段名称即为商品名称,如果商品在某个购买记录中出现用1来表示,否则为0。

#********** Begin **********#
##将以下超市的购买记录(已用一个"超市购买记录.txt"来存放,读取该文件即可)
##注意:文件内容存放与下列展示一致,即顿号分隔,“##”号不是文件内容,文件编码为utf-8):
##  I1、西红柿、排骨、鸡蛋、毛巾、水果刀、苹果
##  I2、西红柿、茄子、水果刀、香蕉
##  I3、鸡蛋、袜子、毛巾、肥皂、苹果、水果刀
##  I4、西红柿、排骨、茄子、毛巾、水果刀
##  I5、西红柿、排骨、酸奶、苹果
##  I6、鸡蛋、茄子、酸奶、肥皂、苹果、香蕉
##  I7、排骨、鸡蛋、茄子、水果刀、苹果
##  I8、土豆、鸡蛋、袜子、香蕉、苹果、水果刀
##  I9、西红柿、排骨、鞋子、土豆、香蕉、苹果
## 将其转换为布尔数据集,其中数据集用数据框Data来表示,数据框中的字段名称即为商品名称,如果商品在某个购买记录中出现用1来表示,否则为0
def return_values():
    tiem=['西红柿','排骨','鸡蛋','茄子','袜子','酸奶','土豆','鞋子']#商品名称,也是数据框的字段名
    import pandas as pd
    import numpy as np
    data=pd.read_table('超市购买记录.txt',engine='python',sep='、',encoding = 'utf-8',header=None)
    data=data.iloc[:,1:]
    D=dict()
    for t in range(len(tiem)):
        z=np.zeros((len(data)))
        li=list()
        for k in range(len(data.iloc[0,:])):
            s=data.iloc[:,k]==tiem[t]
            li.extend(list(s[s.values==True].index))
        z[li]=1
        D.setdefault(tiem[t],z)
    Data=pd.DataFrame(D)  #布尔值数据表
    return Data
#********** End **********#

第12关:基于布尔数据集的一对一和多对一关联规则挖掘

任务描述
本关任务:针对以下布尔数据集,请编程计算规则“A->B”和“A,B->C”的支持度和置信度。
A B C
1 1 0
0 1 1
1 0 0
1 1 1
1 1 1
1 0 0
1 1 1
0 1 1
1 0 0
1 1 1
1 1 0
1 1 1
1 1 0

#针对以下布尔数据集(已用一个“test12.xlsx”表格来存取,直接读取即可,字段名称为A、B、C,“#”号非表格数据):
#   A	B	C
#   1	1	0
#   0	1	1
#   1	0	0
#   1	1	1
#   1	1	1
#   1	0	0
#   1	1	1
#   0	1	1
#   1	0	0
#   1	1	1
#   1	1	0
#   1	1	1
#   1	1	0
##请编程计算规则“A->B”和“A,B->C”的支持度和置信度,分别用sp1和co1,sp2和co2来表示
def return_values():
    import pandas as pd
    # 读取数据
    data = pd.read_excel('test12.xlsx')
    # 计算指标
    total_records = len(data['A'])
    AB_records = len(data[(data['A'] == 1) & (data['B'] == 1)])
    ABC_records = len(data[(data['A'] == 1) & (data['B'] == 1) & (data['C'] == 1)])
    A_records = len(data[data['A'] == 1])
    AB_records = len(data[(data['A'] == 1) & (data['B'] == 1)])
    # 计算支持度和置信度
    sp1 = AB_records / total_records
    co1 = AB_records / A_records
    sp2 = ABC_records / total_records
    co2 = ABC_records / AB_records
    
    return (sp1,co1,sp2,co2)
  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,我将扮演CSDN的ChitGPT,正式回答您的问题。 关于“头歌实验机器学习基本模型算法在线实验闯关第1关:缺失值填充”,我可以提供一些基本信息和指导。 首先,什么是缺失值?在数据分析和机器学习中,缺失值指的是数据中某些变量的值是未知或无法获取的。这可能是由于数据收集过程中的问题、人为错误、技术故障等原因。 缺失值对于数据分析和机器学习非常重要,因为它们可能导致分析结果不精确、模型不准确等问题。因此,需要采取适当的策略来填充缺失值或处理缺失值。 在实验中,关于缺失值填充,需要掌握的关键点包括: 1. 常见的缺失值填充方法包括均值填充、中位数填充、众数填充等。这些方法都是在原始数据中求出该变量的均值、中位数、众数等代替缺失值。但需要注意的是,不同的填充方法可能会对结果产生不同的影响,因此需要根据实际情况选择适当的填充方法。 2. 另外,还需要考虑变量之间的相关性。当两个变量具有一定的相关性时,可以利用该相关性来填充缺失值。例如,如果两个变量之间具有线性相关性,可以利用线性回归等方法来填充缺失值。 3. 最后,需要进行数据清洗和预处理。缺失值填充只是数据预处理的一部分,还需要进行数据标准化、特征提取、降维等操作,以便于后续的建模和分析。 以上是对于“头歌实验机器学习基本模型算法在线实验闯关第1关:缺失值填充”的一些基本信息和指导。如果您还有其他问题,可以继续向我提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值