Hadoop2.7.3 安装

Hadoop2.7.3 安装


VirtualBox_5.18_x64
ubuntu-16.10-desktop-amd64

环境:
VirtualBox_5.18_x64
ubuntu-16.10-desktop-amd64
设置虚拟机的安装位置-E 盘
在创建虚拟机后,在存储-控制器IDE-中添加iso映像
包括Ubuntu 和 BboxGuestAdditions.iso
VirtualBox 设置虚拟机
网络连接方式 :桥接网卡
通过添加windows的虚拟网卡 设置桥接到虚拟网卡 ,可以实现wifi链接,具体可以baidu

先完整的安装一台虚拟机后 链接复制slave虚拟机即可
安装 virtual box下的iso 用于共享文件夹

进入ubuntu后 设置root密码
sudo passwd root
sudo apt-get update
新建项目所在目录位置:
mkdir www
mkdir www/software
这样设置的缺点就是 目录名称过长,Tab提示还需要选择,不过层次分明,可以以不同的字幕开头,会方便很多
mkdir www/softwarebox

关闭防火墙 必须!!!
1 apt-get remove iptables
2 或者 iptables down ? 自己查吧
要安装的软件:
java8 jdk-8u112-linux-x64.gz //据说8会有各种问题 7可能会更方便
hadoop hadoop-2.7.3.tar.gz //2.7.1的帖子多 3的少
spark spark-2.0.1-bin-hadoop2.7.tgz
放入共享文件夹
从共享文件夹中拷贝文件
sudo cp /media/sf_share_box/* /home/leon0/www/softwarebox/

更改安装文件权限
sudo chmod -R 777 /home/leon0/www/softwarebox

tar -zxvf www/softwarebox/spark-2.0.1-bin-hadoop2.7.tgz -C www/software
tar -zxvf www/softwarebox/hadoop-2.7.3-src.tar.gz -C www/software
tar -zxvf www/softwarebox/jdk-8u112-linux-x64.gz -C www/software
tar -zxvf www/softwarebox/hadoop-2.7.3.tar.gz -C www/software

sudo gedit /etc/profile

export JAVA_HOME=/home/leon0/www/software/jdk1.8.0_112
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
export CALSSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/bin
export SPARK_HOME=/home/leon0/www/software/spark-2.0.1-bin-hadoop2.7
export HADOOP_HOME=/home/leon0/www/software/hadoop-2.7.3
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=/home/leon0/www/software/hadoop-2.7.3/lib" #指定java的library地址,否则会Warn 找不到,然后用default
export HADOOP_ROOT_LOGGER=DEBUG,console #安装成功后关掉 ,要不log太多
export PATH=$PATH:$SPARK_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile
测试是否安装成功
java -version
$HADOOP_HOME

mkdir /home/leon0/www/software/hadoop-2.7.3/tmp
mkdir /home/leon0/www/software/hadoop-2.7.3/tmp/dfs
mkdir /home/leon0/www/software/hadoop-2.7.3/tmp/dfs/data
mkdir /home/leon0/www/software/hadoop-2.7.3/tmp/dfs/name

hadoop 文件夹权限!!!
sudo chmod 777 /home/leon0/www/softwarebox/hadoop-2.7.3
查看hadoop是32还是64位的 进入安装目录下的lib /native 下
file libhadoop.so.1.0.0
libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, BuildID[sha1]=b65d38ef07f0484f5f22d0c40408e7a50913b574, not stripped
如果是32位需要自己编译,不过maven编译过程中总有一些插件下载不下来,囧,编译过程请参考aboutyun
更改Hadoop配置文件
/www/software/hadoop-2.7.3
gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/home/leon0/www/software/jdk1.8.0_112

gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/core-site.xml

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://Spark0:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/leno0/www/software/hadoop-2.7.3/tmp</value>
</property>

</configuration>

gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/hdfs-site.xml

后来 我把 hadoop的dfs文件 放在了tmp下面
tmp/dfs/name and data

<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>Spark0:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/home/lenon0/www/software/hadoop-2.7.3/hdfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/home/lenon0/www/software/hadoop-2.7.3/hdfs/data</value>
        </property>
</configuration>

gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/mapred-site.xml

        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>Spark0:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>Spark0:19888</value>
        </property>
        </configuration> 

gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/yarn-site.xml

  <configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>Spark0</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

gedit /home/leon0/www/software/hadoop-2.7.3/etc/hadoop/slaves
添加从节点
Spark1
Spark2

更改Spark配置文件
cp -a spark-env.sh.template spark-env.sh
gedit spark-env.sh

export JAVA_HOME=/home/leon0/www/software/jdk1.8.0_112
export SPARK_MASTER_HOST=Spark0

cp -a slaves.template slaves
gedit slaves
Spark1
Spark2

安装完后 开始复制虚拟机 选择链接复制即可
选择重新更新mac即可

查询各个节点的ifconfig
添加Ip
gedit /etc/hosts

192.168.56.104 Spark0
192.168.56.102 Spark1
192.168.56.103 Spark2
更改主机名称
sudo vim /etc/hostname
Spark1
免密码登陆

sudo apt install openssh-server

ssh-keygen -t rsa

scp authorized_keys leon0@Spark1:~/.ssh
scp authorized_keys leon0@Spark2:~/.ssh

也可以在免密码后 将hadoop拷贝过去
scp -r hadoop-2.7.3 leon0@Spark1:/home/leon0/www/software/
scp -r hadoop-2.7.3 leon0@Spark2:/home/leon0/www/software/

scp hdfs-site.xml leon0@Spark2:/home/leon0/www/software/hadoop-2.7.3/etc/hadoop/

参考
http://blog.csdn.net/SCTU_vroy/article/details/52596655
http://blog.csdn.net/sctu_vroy/article/details/52607067
http://blog.csdn.net/m1213642578/article/details/52468829?locationNum=3

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
注:下文中的 *** 代表文件名中的组件名称。 # 包含: 中文-英文对照文档:【***-javadoc-API文档-中文(简体)-英语-对照版.zip】 jar包下载地址:【***.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【***.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【***.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【***-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: 中文-英文对照文档,中英对照文档,java,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压 【***.jar中文文档.zip】,再解压其中的 【***-javadoc-API文档-中文(简体)版.zip】,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·本文档为双语同时展示,一行原文、一行译文,可逐行对照,避免了原文/译文来回切换的麻烦; ·有原文可参照,不再担心翻译偏差误导; ·边学技术、边学英语。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件;

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值