1.需要自己安装一个sbt, spark 附带的sbt不能用
2.$> sbt package
[error] import org.apache.spark.SparkContext_
[error] ^[error] one error found
[error] (compile:compile) Compilation failed
原因: org.apache.spark包不包含Context_类,估计是官方文档有错误,把这一行代码删除即可
3.有必要装$SPARK_HOME/assembly/target/scala_2.10/assembly/spark-assembly-0.91-hadoopxxx.jar 加入到 CLASSPATH