Hadoop伪分布式搭建步骤

1、搭建虚拟机1台
2、网络配置好,关闭iptables防火墙,关闭selinux
3、jdk1.7.0_80
hadoop-2.6.5.tar.gz

上传这两个包
4、安装jdk
rpm -ivh jdk-7u80-linux-x64.rpm
5、编辑vi /etc/profile
添加两行记录:
export JAVA_HOME=/usr/java/jdk1.7.0_80
export PATH=$ PATH: $ JAVA_HOME/bin

执行 . /etc/profile让配置生效
6、解压hadoop-2.6.5.tar.gz到/opt目录
tar -zxf hadoop-2.6.5.tar.gz -C /opt
7、向/etc/profile添加两行
export HADOOP_PREFIX=/opt/hadoop-2.6.5
export PATH=$ PATH:$ HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin

执行**. /etc/profile**让配置生效

8、配置免秘钥登录
ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub > ~/.ssh/authorized_keys

9、修改/opt/hadoop-2.6.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_80
10、修改/opt/hadoop-2.6.5/etc/hadoop/slaves
node1
设置datanode进程所在的主机
11、配置core-site.xml
<!- namenode和其他组件的通信使用hdfs协议
node1表示namenode在node1主机上
9000 namenode的服务通过端口9000发布
namenode进程在node1主机上
->
< property>
< name>fs.defaultFS< /name>
< value>hdfs://node1:9000< /value>
< /property>

<!-
1、指定namenode在哪个目录存储元数据持久化文件信息
2、指定datanode在哪个目录存储block数据文件
3、指定secondarynamenode在哪个目录存储fsimage和edits log信息
实际上在该目录下分了三个目录存储上面说的三个组件的数据
->
< property>
< name>hadoop.tmp.dir< /name>
< value>/var/bjsxt/hadoop/pseudo< /value>
< /property>

12、配置hdfs-site.xml

<!- 指定block默认的副本数 ->
< property>
< name>dfs.replication< /name>
< value>1< /value>
< /property>

<!- 指定secondarynamenode的http服务的地址
实际上也就指定了secondarynamenode进程所在的主机
->
< property>
< name>dfs.namenode.secondary.http-address< /name>
< value>node1:50090< /value>
< /property>

13、格式化HDFS
hdfs namenode -format
14、启动HDFS
start-dfs.sh

在windows访问namenode节点信息的地址
http://node1:50070

15、上传文件
hdfs dfs -D dfs.replication=1 -D dfs.blocksize=1048576 -put /
16、停止hdfs
stop-dfs.sh
***

注:5 7 中$后是没有空格的,编辑时别忘去掉!!!


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值