1. 编译环境
1. 配置jdk(若已安装openjdk12,且配置过环境,也可)
由于centos自带open-jdk,可以在/usr/lib/jvm中查看所带java
cd /usr/lib/jvm
ls
选择1.8.0版本配置环境
vim /etc/profile
source ./profile
profile文件中加入以下代码:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
2. 安装SSH
1. 安装ssh
yum install openssh-clients
2. 测试ssh
ssh localhost
3. 设置免密登录
exit # 退出刚才的 ssh localhost
cd ~/.ssh/
ssh-keygen -t rsa # 提示都按回车即可
cat id_rsa.pub >> authorized_keys # 加入授权
chmod 600 ./authorized_keys # 修改文件权限
4. 验证是否开启免密登录
service sshd restart #重启sshd服务
ssh localhost #注意是否需要输入密码
exit
2. 安装Hadoop
1. 使用xftp导入源码压缩包
hadoop-2.10.0源码压缩包下载地址
xftp下载地址
2. 解压
sudo tar -xzvf /home/wj/hadoop-2.10.0.tar.gz
3. 配置环境变量
vim /etc/profile
source ./profile
profile文件中加入以下代码:
export HADOOP_HOME=/usr/local/hadoop-2.10.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
3. 配置Hadoop
1. 修改./etc/hadoop/core-site.xml文件
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
2. 修改./etc/hadoop/hdfs-site.xml文件
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>#数据块文件位置
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
3. 修改./etc/hadoop/hadoop-env.sh文件
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64
4. 修改./etc/hadoop/yarn-env.sh文件
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64
5. 修改./etc/hadoop/yarn-site.xml文件
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>127.0.0.1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>127.0.0.1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>127.0.0.1:8031</value>
</property>
4. 检查是否安装成功
1. 格式化
hdfs namenode -format
2. 进入sbin目录,启动hadoop
start-dfs.sh
3. 查看jps(若出现4-6个则配置成功)
4. 通过web访问hadoop,访问地址:http://localhost:50070
4. HDFS的命令行操作
下面就是hdfs中的文件夹和文件,里面默认什么也没有,需要自己上传
1. 创建一个文件夹 hdfs dfs -mkdir /myTask
2. 创建多个文件夹 hdfs dfs -mkdir -p /myTask1/input1
3. 上传文件 hdfs dfs -put /opt/wordcount.txt /myTask/input
4. 查看总目录下的文件和文件夹 hdfs dfs -ls /
5. 查看myTask下的文件和文件夹 hdfs dfs -ls /myTask
6. 查看myTask下的wordcount.txt的内容 hdfs dfs -cat /myTask/wordcount.txt
7. 删除总目录下的myTask2文件夹以及里面的文件和文件夹 hdfs dfs -rmr /myTask2
8. 删除myTask的wordcount.txt hdfs dfs -rmr /myTask/wordcount.txt
9. 下载hdfs中myTask/input/wordcount.txt到本地opt文件夹中 hdfs dfs -get /myTask/input/wordcount.txt /opt
这里是平平无奇的77,妄想优秀 ▇ ▇ ▇ ▇ ▇ ▇ ▇ ▇ ▇ … 0%,若想转载请注明原链接,欢迎下次再来!!