伪分布式搭建

**1. 连接虚拟机
2. 用xftp上传 jdk和 hadoop文件到 /opt
3. 安装java和解压hadoop
1.cd /opt
2.rpm -ivh /opt/jdk-7u67-linux-x64.rpm
解压hadoop
tar -zxf /opt/hadoop-2.6.5.tar.gz -C /usr/local/
4. 修改环境变量
vi /etc/profile
在文件后面添加Java和hadoop的路径
export HADOOP_HOME=/usr/local/hadoop-2.6.5/
export JAVA_HOME=/usr/java/jdk1.7.0_67
export JRE_HOME= J A V A H O M E / j r e e x p o r t P A T H = JAVA_HOME/jre export PATH= JAVAHOME/jreexportPATH=PATH: J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:JRE_HOME/bin: H A D O O P H O M E / b i n ; e x p o r t C L A S S P A T H = . : HADOOP_HOME/bin; export CLASSPATH=.: HADOOPHOME/bin;exportCLASSPATH=.:JAVA_HOME/lib/dt.jar: J A V A H O M E / l i b / t o o l s . j a r : JAVA_HOME/lib/tools.jar: JAVAHOME/lib/tools.jar:JRE_HOME/lib
:wq保存退出
重新加载配置文件加粗样式
source /etc/profile
测试是否能跳转
cd $HADOOP_HOME
cd $JAVA_HOME
5. 修改hadoop运行环境
cd H A D O O P H O M E / e t c / h a d o o p v i h a d o o p − e n v . s h 找 到 e x p o r t J A V A H O M E = HADOOP_HOME/etc/hadoop vi hadoop-env.sh 找到 export JAVA_HOME= HADOOPHOME/etc/hadoopvihadoopenv.shexportJAVAHOME={JAVA_HOME}
改成->export JAVA_HOME=/usr/java/jdk1.7.0_67
6. 配置文件
cd /usr/local/hadoop-2.6.5/
vi etc/hadoop/core-site.xml


fs.defaultFS
hdfs://localhost:9000


vi etc/hadoop/hdfs-site.xml


dfs.replication
1


7.设置自己对自己免密登录
ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa
8.测试是否能自己免密登录
ssh localhost
logout退出
9.格式化namenode
hdfs namenode -format
10.启动hadoop 的dfs
sbin/start-dfs.sh
查看进程 jps
8.关闭防火墙
systemctl stop firewalld.service
9.浏览器访问
101.33.202.206:50070
10.关闭集群
sbin/stop-dfs.sh
加粗样式

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值