Spark问题2之window下载hdfs文件的hosts设置

更多代码请见:https://github.com/xubo245/SparkLearning

Spark生态之Alluxio学习 版本:alluxio(tachyon) 0.7.1,spark-1.5.2,hadoop-2.6.0

1.问题描述

window下打开hdfs,会出现问题:hdfs常配置了hosts,访问或者下载hdfs的文件时(通过浏览器),回出现跳转的是hostname,而不是ip,而window下没有配置hosts,所以访问不了,需要手动设置ip,麻烦

2.解决办法:

设置window的hosts
修改C:\Windows\System32\drivers\etc下的hosts文件

#   127.0.0.1       localhost  
#   ::1             localhost  

后加入自己的host关联

3.运行记录:

可以访问集群并且下载文件:

http://Master:50070/webhdfs/v1/xubo/project/SparkSW/output/time/20161106204334687SparkSW_queryFile_0P18691.file_dbFile_D1Line.fasta_splitNum_32_taskNum_1_file/part-00000?op=OPEN

参考

【1】http://spark.apache.org/docs/1.5.2/programming-guide.html
【2】https://github.com/xubo245/SparkLearning
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值