头歌平台Spark分类分析小节测试(8.2小节测试)

第1关:第一题

打开右侧代码文件窗口,在 BeginEnd 区域补充代码,完成任务。

读取文件 /data/bigfiles/iris.txt 中的内容,使用二项逻辑斯蒂回归进行二分类分析,过滤 Iris-setosa 类。通过 randomSplit 方法将其中的 70% 数据作为训练集,剩下的作为测试集进行预测,最终输出预测的准确率,输出示例如下:

  1. Accuracy:0.912

实现代码如下: 

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.{StructType, StructField, StringType, DoubleType}
import org.apache.spark.ml.feature.{StringIndexer, VectorAssembler}
import org.apache.spark.ml.classification.LogisticRegression
import org.apache.spark.ml.evaluation.{BinaryClassificationEvaluator, MulticlassClassificationEvaluator}

object First_Question {

  def main(args: Array[String]): Unit = {

    /******************* Begin *******************/

    // 创建SparkSession
    val spark = SparkSession.builder()
      .appName("Iris Binary Classification")
      .getOrCreate()

    // 定义schema
    val schema = new StructType(Array(
      StructField("SepalLength", DoubleType, true),
      StructField("SepalWidth", DoubleType, true),
      StructField("PetalLength", DoubleType, true),
      StructField("PetalWidth", DoubleType, true),
      StructField("Species", StringType, true)
    ))

    // 读取文件并应用schema
    val data = spark.read
      .option("inferSchema", "false")
      .option("header", "false")
      .schema(schema)
      .csv("/data/bigfiles/iris.txt")

    // 过滤掉Iris-setosa类
    val filteredData = data.filter("Species != 'Iris-setosa'")

    // 将label列转换为数值类型
    val indexer = new StringIndexer()
      .setInputCol("Species")
      .setOutputCol("label")
    val indexedData = indexer.fit(filteredData).transform(filteredData)

    // 将特征列组合为一个向量列
    val assembler = new VectorAssembler()
      .setInputCols(Array("SepalLength", "SepalWidth", "PetalLength", "PetalWidth"))
      .setOutputCol("features")
    val featureData = assembler.transform(indexedData)

    // 划分数据集为训练集和测试集
    val Array(trainingData, testData) = featureData.randomSplit(Array(0.7, 0.3), seed = 1234L)

    // 创建逻辑斯蒂回归模型
    val lr = new LogisticRegression()

    // 在训练集上拟合模型
    val model = lr.fit(trainingData)

    // 在测试集上进行预测
    val predictions = model.transform(testData)

    // 使用二分类评估器评估模型
    val binaryEvaluator = new BinaryClassificationEvaluator()
      .setLabelCol("label")
      .setRawPredictionCol("rawPrediction")
      .setMetricName("areaUnderROC")
    val auc = binaryEvaluator.evaluate(predictions)

    // 使用多分类评估器评估准确率
    val multiEvaluator = new MulticlassClassificationEvaluator()
      .setLabelCol("label")
      .setPredictionCol("prediction")
      .setMetricName("accuracy")
    val accuracy = multiEvaluator.evaluate(predictions)

    // 输出结果
    println(s"Area under ROC: $auc")
    println(s"Accuracy: $accuracy")

    // 释放资源
    spark.stop()

    /******************* End *******************/
  }
}

 第2关:第二题

打开右侧代码文件窗口,在 BeginEnd 区域补充代码,完成任务。

读取文件 /data/bigfiles/iris.txt 中的内容,使用决策树模型进行分析,通过 randomSplit 方法将其中的 70% 数据作为训练集,剩下的作为测试集进行预测,最终输出预测的准确率,输出示例如下:

  1. Accuracy:0.912

实现代码如下: 

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.{StructType, StructField, StringType, DoubleType}
import org.apache.spark.ml.feature.{StringIndexer, VectorAssembler}
import org.apache.spark.ml.classification.{DecisionTreeClassifier}
import org.apache.spark.ml.evaluation.MulticlassClassificationEvaluator

object Second_Question {

  def main(args: Array[String]): Unit = {

    /******************* Begin *******************/

    // 创建SparkSession
    val spark = SparkSession.builder()
      .appName("Iris Decision Tree Classification")
      .getOrCreate()

    // 定义schema
    val schema = new StructType(Array(
      StructField("SepalLength", DoubleType, true),
      StructField("SepalWidth", DoubleType, true),
      StructField("PetalLength", DoubleType, true),
      StructField("PetalWidth", DoubleType, true),
      StructField("Species", StringType, true)
    ))

    // 读取文件并应用schema
    val data = spark.read
      .option("inferSchema", "false")
      .option("header", "false")
      .schema(schema)
      .csv("/data/bigfiles/iris.txt")

    // 将label列转换为数值类型
    val indexer = new StringIndexer()
      .setInputCol("Species")
      .setOutputCol("label")
    val indexedData = indexer.fit(data).transform(data)

    // 将特征列组合为一个向量列
    val assembler = new VectorAssembler()
      .setInputCols(Array("SepalLength", "SepalWidth", "PetalLength", "PetalWidth"))
      .setOutputCol("features")
    val featureData = assembler.transform(indexedData)

    // 划分数据集为训练集和测试集
    val Array(trainingData, testData) = featureData.randomSplit(Array(0.7, 0.3), seed = 1234L)

    // 创建决策树模型
    val dt = new DecisionTreeClassifier()
      .setLabelCol("label")
      .setFeaturesCol("features")

    // 在训练集上拟合模型
    val model = dt.fit(trainingData)

    // 在测试集上进行预测
    val predictions = model.transform(testData)

    // 使用多分类评估器评估准确率
    val evaluator = new MulticlassClassificationEvaluator()
      .setLabelCol("label")
      .setPredictionCol("prediction")
      .setMetricName("accuracy")
    val accuracy = evaluator.evaluate(predictions)

    // 输出准确率
    println(s"Accuracy: $accuracy")

    // 释放资源
    spark.stop()

    /******************* End *******************/
  }
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值