Windows上IDEA中运行SparkCore程序可能遇到的异常
-1. null/bin/winutils.exe
原因是:windows上配置配置好hadoop的环境
解决方案:按照文档进行配置("Windows环境中MR任务的三种运行方式.zip"),重启IDEA及电脑即可
-2. Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration
原因是:代码中没有给定代码在哪儿运行
解决方案:在代码中明确给定在本地运行
val conf = new SparkConf()
.setMaster("local[*]")
val sc = new SparkContext(conf)
-3. Exception in thread "main" org.apache.spark.SparkException: An application name must be set in your configuration
原因是:代码中没有给定应用的名称
解决方案:在代码中明确给定应用名称
val conf = new SparkConf()
.setMaster("local[*]")
.setAppName("pv&uv")
val sc = new SparkContext(conf)
-4. (Windows系统上)出现类似NullPointerException异常,并且代码是正常的;可能原因是由于windows和linux之间的系统差异,导致windows上某些底层的api调用失败导致的问题
解决方案:修改对应的hadoop相关源码并将其添加到spark项目中==>call gerry
-1. null/bin/winutils.exe
原因是:windows上配置配置好hadoop的环境
解决方案:按照文档进行配置("Windows环境中MR任务的三种运行方式.zip"),重启IDEA及电脑即可
-2. Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration
原因是:代码中没有给定代码在哪儿运行
解决方案:在代码中明确给定在本地运行
val conf = new SparkConf()
.setMaster("local[*]")
val sc = new SparkContext(conf)
-3. Exception in thread "main" org.apache.spark.SparkException: An application name must be set in your configuration
原因是:代码中没有给定应用的名称
解决方案:在代码中明确给定应用名称
val conf = new SparkConf()
.setMaster("local[*]")
.setAppName("pv&uv")
val sc = new SparkContext(conf)
-4. (Windows系统上)出现类似NullPointerException异常,并且代码是正常的;可能原因是由于windows和linux之间的系统差异,导致windows上某些底层的api调用失败导致的问题
解决方案:修改对应的hadoop相关源码并将其添加到spark项目中==>call gerry