hive sql字段关联类型不一致时,两边都会转换成double类型 可以使用explain查看一下执行计划,发现会使用UDF函数将两边的字段都转成double, 由于double类型精度问题,可能导致最终关联的结果和预期不符,数据可能会出现重复,也可能出现关联不上的情况。 注: spark sql不会转成double, 但也会进行数据类型转换,比如string和bigint类型,string类型的字段会转成bigint,再进行关联,具体可以看一下执行计划