hadoop上路记 - 安装

 

看官方安装需求:

Required Software

Required software for Linux include:

1.   Java™ must be installed. Recommended Javaversions are described at HadoopJavaVersions.

2.   ssh must be installed and sshd must berunning to use the Hadoop scripts that manage remote Hadoop daemons.

 

1、配置SSH无密码登录

Centos 默认没有启动SSH无密登录,去掉/etc/ssh/sshd_config中的注释 

#RSAAuthenticationyes

#PubkeyAuthenticationyes

 

# ssh-keygen -tdsa -P '' -f ~/.ssh/id_dsa

# cat~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

验证  # ssh localhost 

Last login: ThuJul 27 22:53:44 2017 from localhost

 

查看是否安装rsync 

# rpm -qa |greprsync -i
rsync-3.0.6-12.el6.i686

 

2、安装hadoop

去官方吧,  http://hadoop.apache.org/releases.html

下载2.7.3版本 .3.0已经有alpha4,  下载完成后发现tar.gz有205M

/usr/local 目录下解压

$ tar -zxvfhadoop-2.7.3.tar.gz  

 

$ bin/hadoop 显示参数用法

hadoop支持三种模式:

Local(Standalone)Mode \ Pseudo-Distributed Mode \ Fully-Distributed Mode

默认情况下hadoop配置为non-distributedmode, as a single Java process. 方便调试


1)建立目录 tmp hdfs hdfs/data hdfs/name

$ mkdir tmp hdfs 
$ mkdir hdfs/data hdfs/name

 

3、hadoop 的配置文件

涉及到的相关文件

hadoop-env.sh  

core-site.xml

yarn-env.sh

hdfs-site.xml

mapred-site.xml

yarn-site.xml


1)配置文件  etc/hadoop/hadoop-env.sh

#exportJAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/usr/local/jdk


2)配置文件 etc/hadoop/yarn-env.sh

#exportJAVA_HOME=/home/y/libexec/jdk1.6.0/
export JAVA_HOME=/usr/local/jdk/

 

3)配置文件 etc/hadoop/core-site.xml: 

HDFS的URI,文件系统://namenode标识:端口号

namenode上本地的hadoop临时文件夹

<configuration>

    <property>

        <name>fs.defaultFS</name>

       <value>hdfs://localhost:9000</value>

    </property>

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-2.7.3/tmp</value>
   </property>

</configuration>

 

4)配置文件 etc/hadoop/hdfs-site.xml:

副本个数,配置默认是3,应小于datanode机器数量

<configuration>

      <property>
               <name>dfs.name.dir</name>
               <value>/usr/local/hadoop-2.7.3/hdfs/name</value>
        </property>
        <property>
               <name>dfs.data.dir</name>
               <value>/usr/local/hadoop-2.7.3/hdfs/data</value>
        </property>

    <property>

       <name>dfs.replication</name>

        <value>1</value>

    </property>

</configuration>

 

5)配置文件  etc/hadoop/mapred-site.xml

<configuration>
        <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
        </property>
</configuration>

 

6配置文件 etc/hadoop/yarn-site.xml 

<configuration>

<!-- Site specific YARN configuration properties -->
        <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>
               <name>yarn.resourcemanager.webapp.address</name>
                <value>192.168.253.119:8099</value>
        </property>
</configuration>

 

$ bin/hdfs namenode -format

启动hadoop 

$ sbin/start-dfs.sh

 

启动yarn

 

$sbin/start-yarn.sh 

 

7/07/28 00:03:14WARN util.NativeCodeLoader: Unable to load native-hadoop library for yourplatform... using builtin-java classes where applicable

出现WARN,但查看有启动,不影响使用 

$ jps

4593 NodeManager
3571 DataNode
4677 Jps
4494 ResourceManager
3742 SecondaryNameNode

应该是5个,怎么少一个NameNade

关闭 sbin/stop-dfs.sh  重format 

bin/hadoop namecode -format 

再启重动 sbin/start-dfs.sh 全部可以显示 

$ jps

6037 SecondaryNameNode
6647 Jps
6186 ResourceManager
5837 DataNode
6286 NodeManager
5743 NameNode


netstat -ant 有端口 50070 及9000启动

 

关闭hadoop 

$ sbin/stop-dfs.sh


安装完成后无法在windows 看到50070 端口的管理界面

1)设置防火墙,在内网测试所以就直接关掉

2)设置NAT 映射 端口50070 




### 回答1: 安装 Hadoop-Eclipse-Plugin 可以让你在 Eclipse 中方便地开发和管理 Hadoop 任务。以下是安装步骤: 1. 下载 Hadoop-Eclipse-Plugin,可以从 Apache 官网或其他镜像站点下载。 2. 打开 Eclipse,选择 Help -> Install New Software。 3. 点击 Add 按钮,输入 Name 和 Location,然后点击 OK。 4. 在 Work with 下拉列表中选择 Hadoop Plugin Site。 5. 在下方列表中勾选 Hadoop Plugin,然后点击 Next。 6. 确认安装选项,然后点击 Next。 7. 接受许可协议,然后点击 Finish。 8. 安装过程可能需要几分钟时间。安装完成后,重启 Eclipse。 9. 在 Eclipse 中打开 Preferences 对话框,选择 Hadoop。 10. 输入 Hadoop 安装路径和 Hadoop 核心库路径,然后点击 Apply。 11. 现在你可以在 Eclipse 中创建 Hadoop 项目和任务,并在本地或集群上运行它们了。 注意:安装 Hadoop-Eclipse-Plugin 前需要先安装 Hadoop 和 Eclipse。 ### 回答2: 在安装 Hadoop-Eclipse-Plugin之前,首先需要确保已经安装了Eclipse IDE。接下来,我们需要按照以下步骤来安装Hadoop-Eclipse-Plugin。 首先,我们需要下载Hadoop-Eclipse-Plugin的安装文件。可以在Hadoop官方网站或者其他可信的网站上找到该插件的下载链接。 下载完成后,打开Eclipse IDE。在Eclipse的菜单栏中选择“Help” -> “Eclipse Marketplace”。 在弹出的对话框中,点击左上角的搜索框,并输入“Hadoop-Eclipse-Plugin”。然后点击“Go”按钮进行搜索。 在搜索结果中找到Hadoop-Eclipse-Plugin,点击“Go”按钮旁边的“Install”按钮。接下来会弹出一个安装对话框。 在安装对话框中,会显示有关Hadoop-Eclipse-Plugin的详细信息。点击“Next”继续安装。 接下来,阅读并接受许可协议,然后点击“Finish”按钮。 安装过程可能需要一段时间,等待安装完成后,点击“Restart Now”按钮重启Eclipse IDE。 重启后,Hadoop-Eclipse-Plugin已经成功安装。可以通过Eclipse的菜单栏选择“Window” -> “Show View” -> “Other”,然后在弹出的对话框中选择“Hadoop”来打开Hadoop-Eclipse-Plugin视图。 通过Hadoop-Eclipse-Plugin的视图,可以方便地管理和操作Hadoop集群,包括上传和下载文件,提交和监控MapReduce任务等。 安装Hadoop-Eclipse-Plugin后,可以更加方便地开发和调试Hadoop应用程序,提高工作效率。 ### 回答3: 安装 Hadoop-Eclipse-Plugin 是为了在 Eclipse IDE 中方便地使用 Hadoop 大数据处理框架。 首先,确保已经安装并配置好了以下软件: 1. JDK:Hadoop 需要使用 Java 开发环境,确保安装了合适版本的 JDK。 2. Eclipse:安装最新版本的 Eclipse IDE。 接下来,按照以下步骤安装 Hadoop-Eclipse-Plugin: 1. 打开 Eclipse,选择 “Help” 菜单,然后选择 “Eclipse Marketplace”。 2. 在 “Eclipse Marketplace” 对话框中搜索 “Hadoop Plugin”,然后点击搜索结果中的 “Hadoop Plugin”。 3. 点击右侧的 “Go to the Project” 按钮,进入 Hadoop-Eclipse-Plugin 的项目页面。 4. 在项目页面中,找到适合你当前版本的插件,并点击右侧的 “Download” 按钮下载插件。 5. 下载完成后,返回到 Eclipse,选择 “Help” 菜单,然后选择 “Install New Software”。 6. 点击 “Add” 按钮,添加插件的本地文件或从网络上选择插件文件,然后点击 “OK”。 7. 在 “Work with” 框中选择下载好的插件,然后点击 “Next”。 8. 在安装对话框中勾选 “I accept the terms of the license agreement” 选项,然后点击 “Finish”。 9. 安装过程可能需要一些时间,完成后会提示重启 Eclipse。 安装完成后,插件将会添加到 Eclipse 的插件列表中。你可以在 Eclipse 的 “Window” 菜单下找到 “Hadoop” 相关的选项,通过它们来管理和运行 Hadoop 任务。 注意:在安装插件之前,请确保你已经正确地配置了 Hadoop 环境,并已经正确安装Hadoop。插件的版本应与你当前 Hadoop 版本兼容,否则可能导致插件无法正常工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值