问题:
在pyspark中 使用sparksql执行sql语句时,发现自定义udf函数不能使用
解决方案:
需要加两个配置
spark = SparkSession.builder \
.appName('dim_enterprise_info') \
.config("hive.metastore.uris", "thrift://master02:9083") \
.config("spark.jars"
问题:
在pyspark中 使用sparksql执行sql语句时,发现自定义udf函数不能使用
解决方案:
需要加两个配置
spark = SparkSession.builder \
.appName('dim_enterprise_info') \
.config("hive.metastore.uris", "thrift://master02:9083") \
.config("spark.jars"