ubuntu安装和配置hadoop,java环境及项目运行

ubuntu安装和配置hadoop,java环境及项目运行

参考博主

Ubuntu 20.0.4 Hadoop3.3.2 安装与配置全流程保姆教程_hadoop unbuntu 保姆_NEKO!的博客-CSDN博客

  1. 安装包准备
    1.  JDK安装包:镜像下载链接(for linux x64 Compressed Archive):Index of java-local/jdk 
    2. hadoop安装包:下载链接:Hadoop 压缩包(Binary download) Apache Hadoop
    3. Ubuntu安装包,下载链接:ubuntu 虚拟机 https://ubuntu.com/download/desktop

  1. 安装JDK和配置(JDK-11)
    1. 找到下载的JDK的路径并进入此路径:/usr/lib/jvm/java-11-openjdk-amd64
    2. 在此路径下解压:tar -zxvf jdk-11_linux-x64_bin.tar.gz自己下载的JDK包的名字
    3. 配置环境变量:找到并打开文件.barsh:在最后一行添加JDK路径

#jdk

export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64

export JRE_HOME=$JAVA_HOME/jre

CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

3安装hadoop和配置(hadoop 3.3.1)

3.1找到自己下载的hadoop压缩包并解压,放入自己的另外一个文件夹(我自己建了一个/home/wqq112692/software)路径存放JDK和hadoop :

#hadoop

export HADOOP_HOME=/home/wqq112692/software/hadoop-3.3.1

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH

    1. 配置hadoop的环境变量:找到并打开文件.barsh:在最后一行添加hadoop路径:如下命令
    2. /home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到core-site.xml文件并配置,加入如下内容:

<configuration>

  <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/home/wqq112692/software/hadoop-3.3.1/tmp</value>

  </property>

  <property>

    <name>fs.defaultFS</name>

    <value>hdfs://localhost:9000</value>

  </property>

</configuration>

    1. /home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到hdfs-site.xml文件并配置,加入如下内容:

<configuration>

 <property>

    <name>dfs.replication</name>

    <value>1</value>

  </property>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/home/wqq112692/software/hadoop-3.3.1/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/home/wqq112692/software/hadoop-3.3.1/tmp/dfs/data</value>

  </property>

  <property>

    <name>dfs.http.address</name>

    <value>0.0.0.0:50070</value>

  </property>

</configuration>

    1. /home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到mapred-site.xml文件并配置,加入如下内容:

<configuration>

<property>

 <name>mapreduce.framework.name</name>

 <value>yarn</value>

</property>

 <property>

    <name>yarn.app.mapreduce.am.env</name>

    <value>HADOOP_MAPRED_HOME=/home/wqq112692/software/hadoop-3.3.1</value>

</property>

<property>

    <name>mapreduce.map.env</name>

    <value>HADOOP_MAPRED_HOME=/home/wqq112692/software/hadoop-3.3.1</value>

</property>

<property>

    <name>mapreduce.reduce.env</name>

    <value>HADOOP_MAPRED_HOME=/home/wqq112692/software/hadoop-3.3.1</value>

</property>

</configuration>

    1. /home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到yarn-site.xml文件并配置,加入如下内容:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

 <property>

<name>yarn.resourcemanager.hostname</name>

<value>ubuntu1</value>

 </property>

 <property>

        <name>yarn.application.classpath</name>

        <value>/home/wqq112692/software/hadoop-3.3.1/etc/hadoop:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/common/lib/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/common/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/hdfs:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/hdfs/lib/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/hdfs/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/mapreduce/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/yarn:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/yarn/lib/*:/home/wqq112692/software/hadoop-3.3.1/share/hadoop/yarn/*

</value>

    </property>

</configuration>

    1. /home/wqq112692/software/hadoop-3.3.1/etc/hadoop/hadoop-env.sh找到hadoop-env.sh文件并配置,加入如下内容:

  1. 启动hadoop
    1. 打开任意终端,进入 /hadoop/bin 路径 cd /usr/hadoop/bin执行指令 ./hdfs namenode -format 进行格式化
    2. 进入 /hadoop/sbin 路径 cd /usr/hadoop/sbin执行指令 ./start-all.sh 启动 hadoop
    3. 执行指令 jps 查看运行的进程必须要有6个才是正确的。
    4. 打开浏览器输入 http://localhost:50070 进入 web 管理页面
    5. 打开浏览器输入 http://localhost:8088进入 web 管理页面.

  1. 利用hadoop实现项目
    1. start-all.sh启动hadoop。
    2. 创建HDFS文件:hdfs dfs -mkdir /user/hadoop/test
    3. 虚拟机文件传到HDFS命令:hdfs dfs -put ~/.bashrc /user/hadoop/test/
    4. 删除文件夹命令:hdfs dfs -rm -r /user/hadoop/mydir
    5. 查看文件内容命令:hdfs dfs -cat /user/hadoop/test/file.txt
    6. 在虚拟机中创建java文件,用javac 项目名称.java运行。调试成功后打包成jar包。Jar -cvfm  scores.jar MANIFEST.MF StudentScores
    7. 在虚拟机存放输入数据的那个路径下(/home/wqq112692/bigdata/work1/input)打开终端。输入命令:

hadoop jar wc.jar WordCountPerFile /user/hadoop/work1/in /user/hadoop/work1/out1

hadoop jar scores.jar StudentScores /user/hadoop/work2/in /user/hadoop/work2/out2

运行wc.jar/scores.jar项目。

scores.jar:虚拟机存放的项目jar包

StudentScores:项目包名.项目类名称

 /user/hadoop/work2/in:HDFS中存放输入数据的路径

/user/hadoop/work2/out2:HDFS中存放输出数据的路径,此路径不能存在。

查看运行结果命令:

hdfs dfs -cat /user/hadoop/work1/out1/part-r-00000

hdfs dfs -cat /user/hadoop/work2/out2/part-r-00000

其他命令:(4)hdfs dfs -mkdir (-p)  /user/hadoop  创建文件夹

hdfs dfs -ls /user/hadoop  查看文件是否创建

hdfs dfs -put file_1.txt /user/hadoop/Hadoop/WordNum/input(hdfs中创建的保存数据的目录),这一步将虚拟机中的数据文件上传到HDFS保存数据的目录中

参考博主:

你有想过,如何用Hadoop实现【倒排索引】?_hadoop倒排索引jar包运行结果截图-CSDN博客

  1. 免密登录(自己选择)

设置免密登录免密命令:

参考博主:

https://www.cnblogs.com/hanwen1014/p/9048717.html

终端输入命令:

ssh-keygen -t rsa

ssh-copy-id -i ~/.ssh/id_rsa.pub localhost

jps后无法显示namenode和datanod解决办法

参考博主:

https://blog.csdn.net/weixin_51737266/article/details/117523282

https://blog.csdn.net/qq_44176343/article/details/109584039

  name-version

  clusterID=CID-c9c13e6e-8b34-4dfa-9266-34200203fed0

http://localhost:50070

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值