问题场景
使用spark 2.4.0进行统计数据,报错误,错误提示为:
WARN Utils:66 - Truncated the string representation of a plan since it was too large. This behavior can be adjusted by setting 'spark.debug.maxToStringFields' in SparkEnv.conf.
原因
是因为该表字段个数比较多,超过了默认值25,所以提示报错。
解决方法
-
程序解决方法
SparkSession .builder() .master("local[2]") .appName("test") .config("spark.debug.maxToStringFields", "100") .getOrCreate(); -
永久解决方法
# spark配置文件 # 在spark-defaults.conf文件中添加一行处理,重启slave,再此进入spark-shell, warning消失了。 spark.debug.maxToStringFields=100我的已经设置为100了,看来还得更大些
当使用Spark2.4.0进行大数据统计时,遇到由于字段数量超过默认限制25导致的警告。解决方案包括在程序中动态设置`spark.debug.maxToStringFields`为100,或者永久性地在`spark-defaults.conf`文件中添加该配置并重启服务。如果问题依旧,可能需要进一步增大该配置值。
4426

被折叠的 条评论
为什么被折叠?



