1.由于没启动dfs报错laocalhost:9000端口拒绝访问:
使用jps指令查看集群的的启动状态发现时namenode,datenode未启动
使用start-dfs.sh 启动hdfs
2.java.lang.IllegalArgumentException: The ServiceName: mapreduce-shuffle set in yarn.nodemanager.aux-services is invalid.The valid service name should only contain a-zA-Z0-9_ and can not start with numbers
报错
问题 由于yarn-site.xml中的
yarn.nodemanager.aux-services
mapreduce_shuffle
value属性配置错误 下划线
3.java.io.FileNotFoundException: File /hadoop/hadoop/hdfs/nm-local-dir/usercache/root/appcache/application_1491817276681_0001/container_1491817276681_0001_02_000001 does not exist
报错
原因是 yarn的
yarn.nodemanager.local-dirs
参数解释:中间结果存放位置,类似于1.0中的mapred.local.dir。注意,这个参数通常会配置多个目录,已分摊磁盘IO负载。
默认值:${hadoop.tmp.dir}/nm-local-dir
默认值是上面的位置 而自己配的本地的hsfs的文件存储目录是在hdfs-site.xml中
配置的文件地址是在/t