在linux安装单机版hadoop-3.3.6

一、下载hadoop

https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/core/hadoop-3.3.6/

二、配置环境变量

1、配置java环境变量

2、配置hadoop环境变量

export HADOOP_HOME=/usr/local/bigdata/hadoop-3.3.6
export HBASE_HOME=/usr/local/bigdata/hbase-2.5.6
export JAVA_HOME=/usr/local/jdk-11
export CLASSPATH=.:$JAVA_HOME/lib
export PATH=.:$JAVA_HOME/bin:$HBASE_HOME/bin:$HADOOP_HOME/bin:$PATH

3、配置host

192.168.42.142 node4

三、修改hadoop对应的配置文件

3.1、在hadoop目录下创建目录

mkdir logs
 mkdir data
mkdir -p  data/namenode/
mkdir -p data/datanode
mkdir -p  data/tmp

3.2、修改hadoop-env.sh

进入etc/hadoop目录下,修改hadoop-env.sh文件

export JAVA_HOME=/usr/local/jdk-11/
export HADOOP_HOME=/usr/local/bigdata/hadoop-3.3.6

3.3、修改yarn-site.xml

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>node4</value>
    </property>
    <property>
        <name>yarn.application.classpath</name>
        <value>/usr/local/bigdata/hadoop-3.3.6/etc/hadoop:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/common/lib/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/common/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/hdfs:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/hdfs/lib/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/hdfs/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/mapreduce/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/yarn:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/yarn/lib/*:/usr/local/bigdata/hadoop-3.3.6/share/hadoop/yarn/*</value>
    </property>

3.4、修改 hdfs-site.xml

  <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>//usr/local/bigdata/hadoop-3.3.6/data/namenode</value> //注意前面部分路径修改为自己的
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>//usr/local/bigdata/hadoop-3.3.6/data/datanode</value> //注意前面部分路径修改为自己的
    </property>
        <property>
           <name>dfs.permissions.enabled</name>
           <value>false</value>
        </property>
        <property>
           <name>dfs.umaskmode</name>
           <value>022</value>
        </property>
        <property>
      <name>dfs.permissions</name>
      <value>false</value>
    </property>
        <property>
     <name>dfs.namenode.acls.enabled</name>
     <value>false</value>
        </property>
        <property>
        <name>dfs.namenode.xattrs.enabled</name>
        <value>false</value>
        </property>
       <property>
          <name>dfs.namenode.http-address</name>
          <value>http://node4:9870</value>
        </property>

3.5、修改mapred-site.xml 

 <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>

3.6、修改core-site.xml

 <property>
        <name>hadoop.tmp.dir</name>
        <value>//usr/local/bigdata/hadoop-3.3.6/data/tmp</value> //注意前面部分路径修改为自己的
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node4:9000</value>
    </property>
        <property>
        <name>hadoop.http.authentication.simple.anonymous.allowed</name>
        <value>true</value>
    </property>
        <property>
     <name>hadoop.proxyuser.hwf.hosts</name>
     <value>*</value>
   </property>
   <property>
     <name>hadoop.proxyuser.hwf.groups</name>
     <value>*</value>
   </property>
   <property>  
                <name>fs.hdfs.impl</name>  
                <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>  
                <description>The FileSystem for hdfs: uris.</description>  
        </property>

3.7、在start-dfs.sh,stop-dfs.sh 文件中增加

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=root
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

3.8、在start-yarn.sh 和stop-yarn.sh 中增加

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=root
YARN_NODEMANAGER_USER=root

注意:这里是测试环境,所以直接用root,生产需要创建对应的用户和用户组

四、格式化文件

 输入hdfs namenode -format格式化

hdfs namenode -format
2023-11-09 22:48:25,218 INFO namenode.FSDirectory: XATTR serial map: bits=24 maxEntries=16777215
2023-11-09 22:48:25,229 INFO util.GSet: Computing capacity for map INodeMap
2023-11-09 22:48:25,229 INFO util.GSet: VM type       = 64-bit
2023-11-09 22:48:25,229 INFO util.GSet: 1.0% max memory 944 MB = 9.4 MB
2023-11-09 22:48:25,229 INFO util.GSet: capacity      = 2^20 = 1048576 entries
2023-11-09 22:48:25,230 INFO namenode.FSDirectory: ACLs enabled? false
2023-11-09 22:48:25,230 INFO namenode.FSDirectory: POSIX ACL inheritance enabled? true
2023-11-09 22:48:25,230 INFO namenode.FSDirectory: XAttrs enabled? false
2023-11-09 22:48:25,231 INFO namenode.NameNode: Caching file names occurring more than 10 times
2023-11-09 22:48:25,235 INFO snapshot.SnapshotManager: Loaded config captureOpenFiles: false, skipCaptureAccessTimeOnlyChange: false, snapshotDiffAllowSnapRootDescendant: true, maxSnapshotLimit: 65536
2023-11-09 22:48:25,236 INFO snapshot.SnapshotManager: SkipList is disabled
2023-11-09 22:48:25,239 INFO util.GSet: Computing capacity for map cachedBlocks
2023-11-09 22:48:25,239 INFO util.GSet: VM type       = 64-bit
2023-11-09 22:48:25,239 INFO util.GSet: 0.25% max memory 944 MB = 2.4 MB
2023-11-09 22:48:25,239 INFO util.GSet: capacity      = 2^18 = 262144 entries
2023-11-09 22:48:25,244 INFO metrics.TopMetrics: NNTop conf: dfs.namenode.top.window.num.buckets = 10
2023-11-09 22:48:25,244 INFO metrics.TopMetrics: NNTop conf: dfs.namenode.top.num.users = 10
2023-11-09 22:48:25,245 INFO metrics.TopMetrics: NNTop conf: dfs.namenode.top.windows.minutes = 1,5,25
2023-11-09 22:48:25,247 INFO namenode.FSNamesystem: Retry cache on namenode is enabled
2023-11-09 22:48:25,247 INFO namenode.FSNamesystem: Retry cache will use 0.03 of total heap and retry cache entry expiry time is 600000 millis
2023-11-09 22:48:25,248 INFO util.GSet: Computing capacity for map NameNodeRetryCache
2023-11-09 22:48:25,248 INFO util.GSet: VM type       = 64-bit
2023-11-09 22:48:25,248 INFO util.GSet: 0.029999999329447746% max memory 944 MB = 290.0 KB
2023-11-09 22:48:25,248 INFO util.GSet: capacity      = 2^15 = 32768 entries
Re-format filesystem in Storage Directory root= /usr/local/bigdata/hadoop-3.3.6/data/namenode; location= null ? (Y or N) Y
2023-11-09 22:48:27,082 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1461429317-192.168.42.142-1699541307072
2023-11-09 22:48:27,082 INFO common.Storage: Will remove files: [/usr/local/bigdata/hadoop-3.3.6/data/namenode/current/VERSION, /usr/local/bigdata/hadoop-3.3.6/data/namenode/current/seen_txid, /usr/local/bigdata/hadoop-3.3.6/data/namenode/current/fsimage_0000000000000000000.md5, /usr/local/bigdata/hadoop-3.3.6/data/namenode/current/fsimage_0000000000000000000]
2023-11-09 22:48:27,093 INFO common.Storage: Storage directory /usr/local/bigdata/hadoop-3.3.6/data/namenode has been successfully formatted.
2023-11-09 22:48:27,129 INFO namenode.FSImageFormatProtobuf: Saving image file /usr/local/bigdata/hadoop-3.3.6/data/namenode/current/fsimage.ckpt_0000000000000000000 using no compression
2023-11-09 22:48:27,198 INFO namenode.FSImageFormatProtobuf: Image file /usr/local/bigdata/hadoop-3.3.6/data/namenode/current/fsimage.ckpt_0000000000000000000 of size 399 bytes saved in 0 seconds .
2023-11-09 22:48:27,206 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
2023-11-09 22:48:27,222 INFO namenode.FSNamesystem: Stopping services started for active state
2023-11-09 22:48:27,222 INFO namenode.FSNamesystem: Stopping services started for standby state
2023-11-09 22:48:27,228 INFO namenode.FSImage: FSImageSaver clean checkpoint: txid=0 when meet shutdown.
2023-11-09 22:48:27,229 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at node4/192.168.42.142
************************************************************/

五、启动hadoop单机版

进入sbin目录下输入./start-all.sh 

[root@node4 sbin]# ./start-all.sh 
Starting namenodes on [node4]
上一次登录:四 11月  9 22:21:08 CST 2023pts/0 上
Starting datanodes
上一次登录:四 11月  9 22:22:49 CST 2023pts/0 上
Starting secondary namenodes [node4]
上一次登录:四 11月  9 22:22:51 CST 2023pts/0 上
Starting resourcemanager
上一次登录:四 11月  9 22:22:55 CST 2023pts/0 上
Starting nodemanagers
上一次登录:四 11月  9 22:23:00 CST 2023pts/0 上

六、查看启动界面

http://192.168.42.142:8088/

http://192.168.42.142:9870/

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 安装 Hadoop-Eclipse-Plugin 可以让你在 Eclipse 中方便地开发和管理 Hadoop 任务。以下是安装步骤: 1. 下载 Hadoop-Eclipse-Plugin,可以从 Apache 官网或其他镜像站点下载。 2. 打开 Eclipse,选择 Help -> Install New Software。 3. 点击 Add 按钮,输入 Name 和 Location,然后点击 OK。 4. 在 Work with 下拉列表中选择 Hadoop Plugin Site。 5. 在下方列表中勾选 Hadoop Plugin,然后点击 Next。 6. 确认安装选项,然后点击 Next。 7. 接受许可协议,然后点击 Finish。 8. 安装过程可能需要几分钟时间。安装完成后,重启 Eclipse。 9. 在 Eclipse 中打开 Preferences 对话框,选择 Hadoop。 10. 输入 Hadoop 安装路径和 Hadoop 核心库路径,然后点击 Apply。 11. 现在你可以在 Eclipse 中创建 Hadoop 项目和任务,并在本地或集群上运行它们了。 注意:安装 Hadoop-Eclipse-Plugin 前需要先安装 Hadoop 和 Eclipse。 ### 回答2: 在安装 Hadoop-Eclipse-Plugin之前,首先需要确保已经安装了Eclipse IDE。接下来,我们需要按照以下步骤来安装Hadoop-Eclipse-Plugin。 首先,我们需要下载Hadoop-Eclipse-Plugin的安装文件。可以在Hadoop官方网站或者其他可信的网站上找到该插件的下载链接。 下载完成后,打开Eclipse IDE。在Eclipse的菜单栏中选择“Help” -> “Eclipse Marketplace”。 在弹出的对话框中,点击左上角的搜索框,并输入“Hadoop-Eclipse-Plugin”。然后点击“Go”按钮进行搜索。 在搜索结果中找到Hadoop-Eclipse-Plugin,点击“Go”按钮旁边的“Install”按钮。接下来会弹出一个安装对话框。 在安装对话框中,会显示有关Hadoop-Eclipse-Plugin的详细信息。点击“Next”继续安装。 接下来,阅读并接受许可协议,然后点击“Finish”按钮。 安装过程可能需要一段时间,等待安装完成后,点击“Restart Now”按钮重启Eclipse IDE。 重启后,Hadoop-Eclipse-Plugin已经成功安装。可以通过Eclipse的菜单栏选择“Window” -> “Show View” -> “Other”,然后在弹出的对话框中选择“Hadoop”来打开Hadoop-Eclipse-Plugin视图。 通过Hadoop-Eclipse-Plugin的视图,可以方便地管理和操作Hadoop集群,包括上传和下载文件,提交和监控MapReduce任务等。 安装Hadoop-Eclipse-Plugin后,可以更加方便地开发和调试Hadoop应用程序,提高工作效率。 ### 回答3: 安装 Hadoop-Eclipse-Plugin 是为了在 Eclipse IDE 中方便地使用 Hadoop 大数据处理框架。 首先,确保已经安装并配置好了以下软件: 1. JDK:Hadoop 需要使用 Java 开发环境,确保安装了合适本的 JDK。 2. Eclipse:安装最新本的 Eclipse IDE。 接下来,按照以下步骤安装 Hadoop-Eclipse-Plugin: 1. 打开 Eclipse,选择 “Help” 菜单,然后选择 “Eclipse Marketplace”。 2. 在 “Eclipse Marketplace” 对话框中搜索 “Hadoop Plugin”,然后点击搜索结果中的 “Hadoop Plugin”。 3. 点击右侧的 “Go to the Project” 按钮,进入 Hadoop-Eclipse-Plugin 的项目页面。 4. 在项目页面中,找到适合你当前本的插件,并点击右侧的 “Download” 按钮下载插件。 5. 下载完成后,返回到 Eclipse,选择 “Help” 菜单,然后选择 “Install New Software”。 6. 点击 “Add” 按钮,添加插件的本地文件或从网络上选择插件文件,然后点击 “OK”。 7. 在 “Work with” 框中选择下载好的插件,然后点击 “Next”。 8. 在安装对话框中勾选 “I accept the terms of the license agreement” 选项,然后点击 “Finish”。 9. 安装过程可能需要一些时间,完成后会提示重启 Eclipse。 安装完成后,插件将会添加到 Eclipse 的插件列表中。你可以在 Eclipse 的 “Window” 菜单下找到 “Hadoop” 相关的选项,通过它们来管理和运行 Hadoop 任务。 注意:在安装插件之前,请确保你已经正确地配置了 Hadoop 环境,并已经正确安装了 Hadoop。插件的本应与你当前 Hadoop 本兼容,否则可能导致插件无法正常工作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值