最近做spark sql开发碰到了许多问题,下面对报错信息做下记录
1, StructType can not accept object in type <type 'int'>
将RDD创建成DataFrame的时候,报上述错误,修正方式如下:
将RDD中的行转换成Row类型就可以了
数据是double类型,并且已经指定double类型
因为RDD中的dict元素的数据类型可以不同,但是在Hive表中的map类型必须相同,当要将RDD数据以Map的格式存储到Hive表中的时候ÿ