**1. 连接虚拟机
2. 用xftp上传 jdk和 hadoop文件到 /opt
3. 安装java和解压hadoop
1.cd /opt
2.rpm -ivh /opt/jdk-7u67-linux-x64.rpm
解压hadoop
tar -zxf /opt/hadoop-2.6.5.tar.gz -C /usr/local/
4. 修改环境变量
vi /etc/profile
在文件后面添加Java和hadoop的路径
export HADOOP_HOME=/usr/local/hadoop-2.6.5/
export JAVA_HOME=/usr/java/jdk1.7.0_67
export JRE_HOME=
J
A
V
A
H
O
M
E
/
j
r
e
e
x
p
o
r
t
P
A
T
H
=
JAVA_HOME/jre export PATH=
JAVAHOME/jreexportPATH=PATH:
J
A
V
A
H
O
M
E
/
b
i
n
:
JAVA_HOME/bin:
JAVAHOME/bin:JRE_HOME/bin:
H
A
D
O
O
P
H
O
M
E
/
b
i
n
;
e
x
p
o
r
t
C
L
A
S
S
P
A
T
H
=
.
:
HADOOP_HOME/bin; export CLASSPATH=.:
HADOOPHOME/bin;exportCLASSPATH=.:JAVA_HOME/lib/dt.jar:
J
A
V
A
H
O
M
E
/
l
i
b
/
t
o
o
l
s
.
j
a
r
:
JAVA_HOME/lib/tools.jar:
JAVAHOME/lib/tools.jar:JRE_HOME/lib
:wq保存退出
重新加载配置文件加粗样式
source /etc/profile
测试是否能跳转
cd $HADOOP_HOME
cd $JAVA_HOME
5. 修改hadoop运行环境
cd
H
A
D
O
O
P
H
O
M
E
/
e
t
c
/
h
a
d
o
o
p
v
i
h
a
d
o
o
p
−
e
n
v
.
s
h
找
到
e
x
p
o
r
t
J
A
V
A
H
O
M
E
=
HADOOP_HOME/etc/hadoop vi hadoop-env.sh 找到 export JAVA_HOME=
HADOOPHOME/etc/hadoopvihadoop−env.sh找到exportJAVAHOME={JAVA_HOME}
改成->export JAVA_HOME=/usr/java/jdk1.7.0_67
6. 配置文件
cd /usr/local/hadoop-2.6.5/
vi etc/hadoop/core-site.xml
fs.defaultFS
hdfs://localhost:9000
vi etc/hadoop/hdfs-site.xml
dfs.replication
1
7.设置自己对自己免密登录
ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa
8.测试是否能自己免密登录
ssh localhost
logout退出
9.格式化namenode
hdfs namenode -format
10.启动hadoop 的dfs
sbin/start-dfs.sh
查看进程 jps
8.关闭防火墙
systemctl stop firewalld.service
9.浏览器访问
101.33.202.206:50070
10.关闭集群
sbin/stop-dfs.sh
加粗样式
伪分布式搭建
最新推荐文章于 2022-08-27 00:33:58 发布