别人的在这里
我也遇到同样的问题,我是spark1.0.2,也可能和版本有关,因为我1.3.0的时候不出错。
根据别人的分析,问题应该是
隐式转换
Scala会将DStream隐式转换成PairDStreamFunctions,该类中有K/V数据类型相关的函数,例如groupByKey、reduceByKey、join等。
隐式转换函数需要额外import,否则无法正常转换。
可以直接import转换函数:
import org.apache.spark.streaming.StreamingContext.toPairDStreamFunctions (我用的是这个,问题解决了)
或者import org.apache.spark.streaming.StreamingContext._ (这个没测试)