【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils )





一、下载 Hadoop



Hadoop 发布版本在 https://hadoop.apache.org/releases.html 页面可下载 ;
在这里插入图片描述

当前最新版本是 3.3.6 , 点击 Binary download 下的 binary (checksum signature) 链接 ,
在这里插入图片描述
进入到 Hadoop 3.3.6 下载页面 :

在这里插入图片描述

下载地址为 :

https://dlcdn.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz

官方下载速度很慢 ;

在这里插入图片描述

这里提供一个 Hadoop 版本 , Hadoop 3.3.4 + winutils , CSDN 0 积分下载地址 :

https://download.csdn.net/download/han1202012/88157568





二、解压 Hadoop



解压时 , 不要直接使用 解压工具 解压 , 会报错 ;

在这里插入图片描述

在 " 搜索 " 中 , 搜索 cmd , 然后右键点击 命令提示符 应用 ,

在这里插入图片描述
此时弹出的 命令提示符 有 管理员 权限 ;
在这里插入图片描述

进入 Hadoop 的安装目录 D:\001_Develop\052_Hadoop ,

在这里插入图片描述

执行

tar zxvf hadoop-3.3.4.tar.gz

命令 , 解压该压缩包 , 这样可以将 hadoop 完美解压出来 , 不会报错 ;

在这里插入图片描述

解压 Hadoop 完成后 , Hadoop 路径为

D:\001_Develop\052_Hadoop\hadoop-3.3.4

在这里插入图片描述





三、设置 Hadoop 环境变量



在 环境变量 中 , 设置

HADOOP_HOME = D:\001_Develop\052_Hadoop\hadoop-3.3.4

系统 环境变量 ;

在这里插入图片描述

在 Path 环境变量中 , 增加

%HADOOP_HOME%\bin
%HADOOP_HOME%\sbin

环境变量 ;

在这里插入图片描述





四、配置 Hadoop 环境脚本



设置 D:\001_Develop\052_Hadoop\hadoop-3.3.4\etc\hadoop\hadoop-env.cmd 脚本中的 JAVA_HOME 为真实的 JDK 路径 ;

set JAVA_HOME=%JAVA_HOME%

修改为

set JAVA_HOME=D:\001_Develop\031_Java8u144_Frida\jdk1.8.0_144

在这里插入图片描述

注意 : 路径中不要出现空格 , 尤其是 Program Files 目录 , 不要把 JDK 安装在这个目录中 , 有大坑 ;





五、安装 winutils



将 winutils-master\hadoop-3.3.0\bin 中的 hadoop.dll 和 winutils.exe 文件拷贝到 C:\Windows\System32 目录中 ;

在这里插入图片描述





六、重启电脑



重启电脑 , 一定要重启 , 否则不生效 ;





七、验证 Hadoop 安装效果



然后在命令行中 , 执行

hadoop -version

验证 Hadoop 是否安装完成 ;

C:\Windows\system32>hadoop -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) Client VM (build 25.144-b01, mixed mode)

C:\Windows\system32>hadoop
Usage: hadoop [--config confdir] [--loglevel loglevel] COMMAND
where COMMAND is one of:
  fs                   run a generic filesystem user client
  version              print the version
  jar <jar>            run a jar file
                       note: please use "yarn jar" to launch
                             YARN applications, not this command.
  checknative [-a|-h]  check native hadoop and compression libraries availability
  conftest             validate configuration XML files
  distch path:owner:group:permisson
                       distributed metadata changer
  distcp <srcurl> <desturl> copy file or directories recursively
  archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
  classpath            prints the class path needed to get the
                       Hadoop jar and the required libraries
  credential           interact with credential providers
  jnipath              prints the java.library.path
  kerbname             show auth_to_local principal conversion
  kdiag                diagnose kerberos problems
  key                  manage keys via the KeyProvider
  trace                view and modify Hadoop tracing settings
  daemonlog            get/set the log level for each daemon
 or
  CLASSNAME            run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

C:\Windows\system32>

在这里插入图片描述

  • 24
    点赞
  • 110
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
### 回答1: 如果要在本地配置 Hadoop开发环境,你需要安装 Hadoop 并创建一个伪分布式集群。 安装 Hadoop 的方法取决于你使用的操作系统。你可以通过以下两种方式之一来安装 Hadoop: 1. 使用软件包管理器(例如 apt-get 或 yum): - 在 Ubuntu 中,使用以下命令安装 Hadoop: ``` sudo apt-get install hadoop ``` - 在 CentOS 中,使用以下命令安装 Hadoop: ``` sudo yum install hadoop ``` 2. 从源代码安装 Hadoop: - 下载 Hadoop 源代码: ``` wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz ``` - 解压Hadoop 源代码: ``` tar -xzvf hadoop-3.3.0.tar.gz ``` 接下来,你需要创建一个伪分布式集群,这意味着你在单个机器上运行 Hadoop,但是其表现得像一个分布式集群。 首先,你需要配置 Hadoop配置文件(例如 hadoop-env.sh),然后启动 Hadoop。 在完成这些步骤后,你就可以使用 Hadoop 了! ### 回答2: Hadoop大数据处理的常用工具之一,其分布式存储和处理数据的特点,使其越来越受到关注。而为了使用Hadoop,我们需要先配置开发环境,包括Hadoop安装和伪分布式集群搭建。 Hadoop安装Hadoop是基于Java开发的,所以首先需要安装Java。建议安装Java8或以上版本,并确保JAVA_HOME环境变量已经配置好。 接下来,需要下载Hadoop安装包并解压缩。建议使用Apache官方的二进制发行版本,也可以选择Cloudera或Hortonworks等第三方发行版本。解压后,在Hadoop的根目录下,需要进行一些配置。 伪分布式集群搭建: 伪分布式集群是在单台机器上搭建的模拟集群,可以方便地进行Hadoop的学习和开发。要搭建伪分布式集群,需要进行如下配置: 1. 配置Hadoop配置文件:修改Hadoop配置文件hadoop-env.sh,并将HADOOP_CONF_DIR、HADOOP_MAPRED_HOME、HADOOP_COMMON_HOME、HADOOP_HDFS_HOME环境变量设置Hadoop安装目录。 2. 配置HDFS文件系统:在Hadoop的conf目录下,创建一个新的文件夹hadoop_data,并在该目录下创建三个子目录:namenode、datanode和tmp。其中,namenode和datanode分别是HDFS的主节点和从节点,而tmp目录是用来存放临时文件的。 3. 启动Hadoop:通过执行start-all.sh脚本,可以启动所有的Hadoop进程。如果一切正常,就可以通过http://localhost:50070访问HDFS的文件浏览器,和http://localhost:8088访问资源管理器,查看Hadoop运行状态。 这样,伪分布式Hadoop集群就搭建完成了。通过这个集群,可以进行各种Hadoop的开发操作,比如MapReduce程序的编写和执行等。当然,在实际应用中,还需要对Hadoop进行更加严格和复杂的配置和管理。 ### 回答3: Hadoop是一个开源的分布式计算框架,它能够对大规模的数据进行存储和处理,也因此得到了广泛的应用。如今Hadoop已成为大数据生态系统中的一个重要组成部分。为了能够使用Hadoop,我们需要先配置开发环境。下面就让我们了解一下第二关:配置开发环境 - Hadoop安装与伪分布式集群搭建。 首先,我们需要先下载Hadoop,并安装Java环境Hadoop支持多个版本,可以根据自己的需要进行选择。安装Java环境的方法也很简单,只需要到官网上下载对应的JDK,然后按照提示进行安装即可。 接下来,我们需要配置Hadoop环境变量。在Linux系统下,直接在.bashrc文件中添加以下代码即可: export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin 其中,/path/to/hadoop改为实际的Hadoop安装路径。 当环境变量配置好后,我们就可以开始配置Hadoop的伪分布式集群。 首先,我们需要编辑hadoop-env.sh文件,将JAVA_HOME设置为我们刚刚安装的JDK路径。 然后,我们需要配置core-site.xml文件。在该文件中,我们需要指定Hadoop所使用的文件系统类型,这里我们使用HDFS。同时,我们还需要指定Hadoop的namenode,即Hadoop的主节点。将以下代码添加到core-site.xml文件中: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> 其中,localhost改为实际的主机名。 接下来,我们需要配置hdfs-site.xml文件。该文件用于配置Hadoop分布式文件系统(HDFS)。将以下代码添加到hdfs-site.xml文件中: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/path/to/hadoop/data/nameNode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/hadoop/data/dataNode</value> </property> </configuration> 其中,/path/to/hadoop/data/nameNode和/path/to/hadoop/data/dataNode改为实际的数据存储路径。 最后,我们需要配置mapred-site.xml文件。该文件用于配置MapReduce计算框架。将以下代码添加到mapred-site.xml文件中: <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> 以上就是配置Hadoop分布式集群的所有步骤。我们可以通过启动命令,启动Hadoop集群。运行$HADOOP_HOME/sbin/start-all.sh即可启动Hadoop分布式集群。最后,我们可以通过JPS命令查看Hadoop的各个组件是否启动成功。 总之,配置Hadoop开发环境后,我们才能更好地使用Hadoop进行数据处理。通过以上步骤,我们可以轻松搭建Hadoop分布式集群,并开始进行数据处理工作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值