spark-ml函数 VectorAssembler()

from pysaprk.ml.feature import VectorAssembler()
A feature transformer that merges multiple columns into a vector column.
合并几个列到一个向量列

from pyspark.ml.linalg import Vectors
from pyspark.ml.feature import VectorAssembler

from pyspark.sql import SparkSession
import os
os.environ['PYSPARK_PYTHON']='/usr/local/bin/python3'

if __name__ == "__main__":
    spark = SparkSession\
        .builder\
        .appName("VectorAssemblerExample")\
        .getOrCreate()

    dataset = spark.createDataFrame(
        [(0, 18, 1.0, Vectors.dense([0.0, 10.0, 0.5]), 1.0)],
        ["id", "hour", "mobile", "userFeatures", "clicked"])

    assembler = VectorAssembler(
        inputCols=["hour", "mobile", "userFeatures"],
        outputCol="features")

    output = assembler.transform(dataset)
    print("Assembled columns 'hour', 'mobile', 'userFeatures' to vector column 'features'")
    output.select("features", "clicked").show(truncate=False)
    spark.stop()

输出
在这里插入图片描述

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是使用Spark ML中的分类算法实现智能菜品推荐的代码示例: ```python # 导入必要的库 from pyspark.ml.feature import VectorAssembler, StringIndexer, OneHotEncoder from pyspark.ml.classification import RandomForestClassifier from pyspark.ml import Pipeline from pyspark.sql.functions import col, udf from pyspark.sql.types import DoubleType # 读取数据集 data = spark.read.format("csv").option("header", "true").load("data/cuisine.csv") # 数据预处理,将类别特征转换成数值特征 cuisineIndexer = StringIndexer(inputCol="cuisine", outputCol="label") encoder = OneHotEncoder(inputCol="cuisineIndex", outputCol="cuisineVec") assembler = VectorAssembler(inputCols=["cuisineVec", "ingredients"], outputCol="features") # 划分训练集和测试集 (trainingData, testData) = data.randomSplit([0.7, 0.3]) # 使用随机森林算法训练模型 rf = RandomForestClassifier(labelCol="label", featuresCol="features", numTrees=10) pipeline = Pipeline(stages=[cuisineIndexer, encoder, assembler, rf]) model = pipeline.fit(trainingData) # 预测测试集中的菜品类别 predictions = model.transform(testData) # 评估模型 evaluator = MulticlassClassificationEvaluator(labelCol="label", predictionCol="prediction", metricName="accuracy") accuracy = evaluator.evaluate(predictions) print("Test Error = %g" % (1.0 - accuracy)) # 定义udf函数,将类别特征转换成数值特征 cuisineIndex = StringIndexer(inputCol="cuisine", outputCol="cuisineIndex").fit(data) encoder = OneHotEncoder(inputCol="cuisineIndex", outputCol="cuisineVec") def cuisine_to_vec(cuisine): return float(cuisineIndex.transform([(cuisine,)])[0][0]) cuisine_to_vec_udf = udf(cuisine_to_vec, DoubleType()) # 输入用户喜好的菜品类别和食材列表,输出推荐菜品的类别和食材列表 def recommend_cuisine(cuisine, ingredients): df = spark.createDataFrame([(cuisine, ingredients)], ["cuisine", "ingredients"]) df = df.withColumn("cuisineIndex", cuisine_to_vec_udf(col("cuisine"))) df = encoder.transform(df) df = assembler.transform(df) predictions = model.transform(df).select("prediction").collect() return cuisineIndex.labels[int(predictions[0][0])] # 示例调用 recommend_cuisine("italian", ["tomato", "pasta", "olive oil"]) ``` 以上代码是基于Spark ML中的随机森林算法实现的智能菜品推荐,您可以根据自己的需求修改数据集和参数,以及调整模型的算法和参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值