应该是同一个dataframe里不同字段大小写混淆了,改名就好了。
spark底层是scala,百度说scala说大小写敏感的,不懂spark为什么会混。
pyspark 提示 “###”ambigious
最新推荐文章于 2024-05-10 22:51:01 发布
应该是同一个dataframe里不同字段大小写混淆了,改名就好了。
spark底层是scala,百度说scala说大小写敏感的,不懂spark为什么会混。