hadoop 安装

这篇博客详细记录了在Ubuntu 13.04上安装Hadoop 1.2.1的完全分布式模式的过程,包括创建hadoop用户组、安装SSH服务、配置SSH无密码登录、安装Hadoop、配置Hadoop环境、启动服务以及解决安装过程中遇到的问题。
摘要由CSDN通过智能技术生成

终于开始写第一篇正式的博客啦,才开始研究hadoop,安装的时候花了很大力气。伪分布式很好安装 ,但是到了完全分布模式的时候就各种问题,后来发现还是自己基础不好,改了参数后没有reboot,最后出了各种离奇的错误。解决方案都是重新配置。 里面有很多步骤是在各处搜到的



Hadoop 集群支持三种运行模式:单机模式,伪分布式模式和完全分布式模式。

 

1)单机模式

   适合开始时做调试工作

2)伪分布式模式

   可以再单节点上以伪分布式模式运行,用不同的Java进程模拟分布式运行中的各类节点

3)完全分布式模式

   

 

作者:lvlu

Ubuntu版本:13.04

Hadoop版本:1.2.1

安装路径:/usr/local/hadoop/

 

一、常见hadoop用户组和用户:

1、 创建hadoop用户组:

sudo addgroup hadoop

2、 创建hadoop用户

sudo adduser –ingroup hadoop hadoopuser

3、 给hadoopuser用户添加权限,打开/etc/sudoers文件

sudo gedit /etc/sudoers

在root   ALL=(ALL:ALL)   ALL下添加hadoop   ALL=(ALL:ALL)  ALL

 

 

二、安装ssh服务 sudo apt-get install openssh-server

三、建立ssh无密码登陆本机

首先要转换成hadoopuser用户,执行以下命令 su hadoopuser

1、 创建ssh-keygen命令为: ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 

如图:

 

 

2、 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的;

cd ~/.ssh

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

3、 登录localhost;

ssh localhost

4、 执行退出命令 exit

 

四、安装hadoop

1、假设hadoop-1.2.1.tar.gz在主目录下的下载”中,将它复制到/usr/local/

sudo mkdir hadoop

sudo cp hadoop-1.2.1.tar.gz /usr/local/hadoop

2、解压hadoop-1.2.1.tar.gz

cd /usr/local/hadoop

sudo tar -zxf hadoop-1.2.1.tar.gz 

3、将该hadoop文件夹的属主用户设为hadoopuser

sudo chown -R hadoop:hadoopuser hadoop

4打开hadoop/conf/hadoop-env.sh文件;

sudo gedit hadoop/conf/hadoop-env.sh

5、配置conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径);

export JAVA_HOME=/usr/localjava/jdk1.7.0

6打开conf/core-site.xml文件;(建立集群模式时所有localhost都改成namenodeip)

sudo gedit hadoop/conf/core-site.xml

编辑如下:

<configuration> 

<property>   

  <name>fs.default.name</name>   

  <value>hdfs://localhost:9000</value>    

 </property>   

</configuration>

7打开conf/mapred-site.xml文件;

sudo gedit hadoop/conf/mapred-site.xml

编辑如下:

    <configuration>   

     <property>    

      <name>mapred.job.tracker</name>   

      <value>localhost:9001</value>    

     </property>   

    </configuration>

8打开conf/hdfs-site.xml文件;

sudo gedit hadoop/conf/hdfs-site.xml

编辑如下:

    <configuration>   

     <property>    

      <name>dfs.replication</name>   

      <value>1</value>    

     </property>   

    </configuration>

9打开conf/masters文件,添加作为secondarynamenode的主机名,作为单机版环境,这里只需填写 localhost Ok

sudo gedit hadoop/conf/masters

10、打开conf/slaves文件,添加作为slave的主机名,一行一个。作为单机版,这里也只需填写 localhostOk了。

sudo gedit hadoop/conf/slaves

我自己没敲,默认就是localhost,千万别修改为127.0.0.1 localhost虽然正式的多台机器是这样的写法,但是单台机器不需要前面的ip地址,否则会报错

  11.集群模式时,masterslaves分别写上namenodeipdatanodeip

五、在单机上运行hadoop

1、进入hadoop目录下,格式化hdfs文件系统,初次运行hadoop时一定要有该操作,

cd /usr/local/hadoop/

bin/hadoop namenode -format

若出现:

则是因为权限不够所引起的,应该用sudo 执行

 

按大写Y

 

提示已经格式化成功。

 

2、启动bin/start-all.sh

bin/start-all.sh

 

 

 

详情查看官网:http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html

 

相关问题

 

1. put: Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused

     解决方案:一般jps后发现namenode没有运行,格式化namenode.重新启动hadoop 

Namenode格式化后解决Hadoop namenode -format

Start-all.sh

2. 在jobtracker网页上找不到datanode

   解决方案,一般由于格式化次数太多或者从伪分布式改成集群模式时临时文件没有删干净造成。先去 vi  /etc/hosts 把是个虚拟机的ip好 然后再去/usr/local/hadoop 里面把三个datanodeip加到slave里面 把namenodeip加到master里面 再去/usr/local/hadoop/conf 里面修改core-site.sh 里面hdfsip 改成namenode的 还有mmapred-site.xm的改namenodeip 一起都要改 然后reboot(所有系统文件参数的修改后都要reboot) 

        然后在主文件夹下面删除hadoop_tmp 在重新建一个同名文件夹 最后hadoop namenode -format 格式化(格式化只在namenode上就可以,其他的步骤几个节点都要做)      理论上就可以用了!




Ubuntu版本:13.04

Jdk版本:1.7.0

安装路径:/usr/local/java/jdk1.7.0

 

 

安装过程:

1、 下载jdk安装包jdk-7-linux-i586.tar.gz

2、 复制jdk到安装目录

a) 假设安装包在主目录下的下载”目录里,要安装到/usr/local/java中。先在/usr/local创建java目录

 

b) 切换到下载”目录下,执行复制:

 

3、 安装jdk

a) 解压安装包jdk-7-linux-i586.tar.gz 使用命令:sudo tar zxvf ./ jdk-7-linux-i586.tar.gz  -C /usr/local/java/

4、 配置环境变量

a) 打开/etc/profile文件

 

b) 添加环境变量

export JAVA_HOME=/usr/localjava/jdk1.7.0

export JRE_HOME=/usr/localjava/jdk1.7.0/jre

export CLASSPATH=$CLASSPATH: .:$JAVA_HOME/lib:$JRE_HOME/lib

 

一般更改/etc/profile文件后,需要重启机器才能生效。也有不用重启使其生效的方法,

 

7、 进入 /usr/bin/目录

 

这里有两点要注意:第一,ln命令会保持每一处链接文件的同步性,也就是说,不论你改动了哪一处,其它的文件都会发生相同的变化;第二,ln的链接又软链接和硬链接两种,软链接就是ln –s ** **,它只会在你选定的位置上生成一个文件的镜像,不会占用磁盘空间,硬链接ln ** **,没有参数-s, 它会在你选定的位置上生成一个和源文件大小相同的文件,无论是软链接还是硬链接,文件都保持同步变化。

c) 查看java环境变量是否设置成功:

 



以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值