是spark找不到hadoop导致的
hive-site.xml、core-site.xml、hdfs-site.xml这几个文件都应该把内容复制到项目的resource目录下建立同名文件。spark才能找到hive与hadoop。
此外,本地路径,最好加上文件系统的前缀,不然spark会去配置文件中去找路径。
是spark找不到hadoop导致的
hive-site.xml、core-site.xml、hdfs-site.xml这几个文件都应该把内容复制到项目的resource目录下建立同名文件。spark才能找到hive与hadoop。
此外,本地路径,最好加上文件系统的前缀,不然spark会去配置文件中去找路径。