hadoop安装

Hadoop伪分布式安装

1、解压hadoop包

2、进入 /etc/hadoop目录下,修改配置文件

2.1 修改core-site.xml

152821_j7Rf_2874009.png

2.2 修改hadoop-env.sh

主要是修改里面的JAVA_HOME,如果已经添加到环境变量,就不用修改,否则,要把java的安装路径写进去

153010_RxdC_2874009.png

2.3 修改hdfs-site.xml

153236_cAIJ_2874009.png

2.4 修改mapred-site.xml

 cp mapred-site.xml.template mapred-site.xml

153447_ptmV_2874009.png

2.5 修改yarn-site.xml

153654_Lv40_2874009.png

3、格式化namenode

进入bin目录下,运行命令hdfs namenode -format

155130_3JsE_2874009.png

4 启动hadoop

进入sbin目录下,运行start-all.sh脚本

154608_0Ke6_2874009.png

启动成功的状态:

155248_t1mR_2874009.png

5 测试:在hfds下新建目录/data

155636_QfMq_2874009.png

 

在window下运行hadoop

1、在window下解压hadoop安装包,配置环境变量  /bin

2、window下写代码测试

private static FileSystem fs = null;

@Before
	public void fs() throws IOException {
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://10.206.19.80:9000");
		conf.set("dfs.replication", "1");
		fs = FileSystem.get(conf);
	}

@Test
	public void testMkdir() throws IllegalArgumentException, IOException {
		boolean res = fs.mkdirs(new Path("hdfs://10.206.19.80:9000/data/hdfsTest/pengxiaochun1"));
		System.out.println("result ="+res);
	}

会提示出错,因为window上的当前用户,访问不了linux的hadoop环境下的目录

3、修改权限

./hadoop fs -chmod 777 /

4、测试

172837_OULq_2874009.png

说明可以在window下进行调试了。

 

hadoop集群安装

 

转载于:https://my.oschina.net/u/2874009/blog/739896

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值