oozie 4.3.0 编译安装

Oozie的编译:

系统需求:

Unix box (tested on Mac OS X and Linux)

Java JDK 1.7+

Maven 3.0.1+

Hadoop 0.20.2+

Pig 0.7+

 

JDK commands (java, javac) must be in the command path.

The Maven command (mvn) must be in the command path.

 

Java安装:省略

Maven的安装:

1、解压mavenzip:

[root@hadoop01 home]# mv /usr/local/apache-maven-3.3.9/ /usr/local/maven-3.3.9

2、配置环境变量

[root@hadoop01 home]# vi /etc/profile

[root@hadoop01 home]# source /etc/profile

3、测试maven是否安装ok


 Hadoop的安装:省略

 

Pig的安装:

1、解压pig:


 2、配置环境变量:

[root@hadoop01 local]# source /etc/profile

3、测试是否安装ok

Oozie的解压编译:

1、oozie的解压

2、配置环境变量:

[root@hadoop01 ~]# source /etc/profile

3、编译oozieoozie-4.3.0-distro.tar.gz的包:

编译命令如下:

[root@hadoop01 oozie-4.3.0]# mkdistro.sh -DskipTests -Phadoop-2 -Dhadoop.auth.version=2.7.1 -Ddistcp.version=2.7.1

注意编译命令后面有很多组件版本,请注意版本匹配问题和默认的版本。很容易在中央仓库中找不到对应版本的jar包。

编译完成后:

编译是一个漫长过程,如果有jar包或者插件丢失都可以试图删掉后重新下载,或者手动下载,如果网络不行那试图自己下载搭建本地服务器。

 

Oozie server的安装:

1、将编译好的jarcopy/home目录

2将编译之前的oozie目录给删除或者重命名备份以便下次重新编译:

 

3将编译好的jaroozie-4.3.0-distro.tar.gz解压到/user/local目录:

4配置conf/oozie-site.xml(mysql的安装忽略)

<!--mysql作为元数据存放的数据库-->

<property>

    <name>oozie.service.JPAService.jdbc.driver</name>

    <value>com.mysql.jdbc.Driver</value>

</property>

<!--mysql的连接路径-->

<property>

    <name>oozie.service.JPAService.jdbc.url</name>

    <value>jdbc:mysql://192.168.216.111:3306/oozie</value>

</property>

<!--mysql的用户名-->

<property>

    <name>oozie.service.JPAService.jdbc.username</name>

    <value>root</value>

</property>

<!--mysql的用户名所对应的密码-->

<property>

    <name>oozie.service.JPAService.jdbc.password</name>

    <value>root</value>

</property>

<!--hadoop的配置文件的路径-->

<property>

    <name>oozie.service.HadoopAccessorService.hadoop.configurations</name>

    <value>*=/usr/local/hadoop-2.7.1/etc/hadoop/</value>

</property>

<!--Spark的配置文件的路径,有则配置,没有则不用

<property>

    <name>oozie.service.SparkConfigurationService.spark.configurations</name>

    <value>*=/opt/spark-1.4.0-bin-hadoop2.6-hive/conf</value>

</property>-->

<!--

设置系统库存放在hdfs中,注意只有在job.properties中将设置oozie.use.system.libpath=true才会引用系统库

。注意,下面ns1namenode的逻辑名称,根据自己集群的情况进行更改即可-->

<property>

    <name>oozie.service.WorkflowAppService.system.libpath</name>

    <value>hdfs://qianfeng/user/${user.name}/share/lib</value>

</property>

5、在hadoop的配置文件./etc/hadoop/core-site.xml中追加配置oozie代理用户:

    <property>

        <name>hadoop.proxyuser.root.hosts</name>

        <value>root</value>

    </property>

    <property>

        <name>hadoop.proxyuser.root.groups</name>

        <value>root</value>

</property>

注意:在hadoop.proxyuser.root.groups的值改成*,也是可以运行的。

然后再将配置好的core-site.xml配置文件重新分发给集群中的每台主机,并需要重新启动hadoop的集群。

6、/usr/local/oozie-4.3.0目录下创建一个libext目录,并在/usr/local/hadoop-2.7.1目录下使用以下命令将Hadoop下的所有jar包复制到libext目录中:find -name *.jar |xargs -t -i cp {} /usr/local/oozie-4.3.0/libext。注意:需要将libext中的hsqldb-2.0.0.jar删掉,否则会引起jar包冲突。

命令如下:

[root@hadoop01 oozie-4.3.0]# mkdir libext

[root@hadoop01 oozie-4.3.0]# find /usr/local/hadoop-2.7.1 -name *.jar |xargs -t -i cp {} /usr/local/oozie-4.3.0/libext

[root@hadoop01 oozie-4.3.0]# rm -rf ./libext/hsqldb-2.0.0.jar

 

7、将下载好的ext-2.2.zip以及mysql驱动包(例如:mysql-connector-java-5.1.32.jar)复制到libext目录下。

[root@hadoop01 oozie-4.3.0]# cp /home/ext-2.2.zip /home/mysql-connector-java-5.1.38.jar /usr/local/oozie-4.3.0/libext/

 

8、执行下面的命令,ext2.2.0.ziphadoop的相关jar包、以及mysql-connector-java-<版本>.jarhtrace-core-<版本>.jaravro-<版本>.jar 打进新war包里:

addtowar.sh -inputwar oozie.war  -outputwar oozie-server/webapps/oozie.war -hadoop 2.7.1 /usr/local/hadoop-2.7.1 -extjs libext/ext-2.2.zip -jars /usr/local/oozie-4.3.0/libext/mysql-connector-java-5.1.38.jar:/usr/local/oozie-4.3.0/libext/htrace-core-3.1.0-incubating.jar:/usr/local/oozie-4.3.0/libext/avro-1.7.4.jar

注意: htrace-coreavro这两个jar包不加的话,后面提交job时会出错!并且执行了上面这句后,就不能再执行./bin/oozie-setup.sh prepare-war 了,否则替换掉oozie-server/webapps/中已经生成的oozie.war

 

8、如果还没有安装mysql,那么需要安装一个mysql。安装好后,mysql数据库中创建名为oozie的数据库(注意:oozie-site.xml中有个配置项oozie.service.JPAService.create.db.schema,默认值为false,表示非自动创建数据库,所以我们需要自己创建oozie数据库),并进行访问授权,然后在/usr/local/oozie-4.3.0下执行:

ooziedb.sh create -sqlfile oozie.sql -run

查看oozie数据库,如果产生了以下的表,就说明该步骤OK

 

 

注意:如果执行以上语句报错:Caused by: java.lang.ClassNotFoundException: org.w3c.dom.ElementTraversal

以上的简单解决办法如下:

[root@hadoop01 oozie-4.3.0]# cp ./libext/xml-apis-1.4.01.jar /usr/local/jdk1.8.0_152/jre/lib/ext/

 

9、安装oozie-sharelib

/usr/local/oozie-4.3.0/oozie-sharelib-4.3.0.tar.gz解压到安装目录:

[root@hadoop01 oozie-4.3.0]# tar -zxvf /usr/local/oozie-4.3.0/oozie-sharelib-4.3.0.tar.gz

 

mysql-connector-java-5.1.38.jar复制到/opt/oozie-4.3.0/share/lib/sqoop目录中。如果没有这个jar,将不能从mysql将数据导入或导出。

[root@hadoop01 oozie-4.3.0]# cp ./libext/mysql-connector-java-5.1.38.jar ./share/lib/sqoop/

 

将这个share上传到hdfs上:

[root@hadoop01 oozie-4.3.0]# hdfs dfs -put /usr/local/oozie-4.3.0/share /user/root

注意:oozie-site.xml中的oozie.service.WorkflowAppService.system.libpath的值保持一致,所以必须放到/user/root这个目录下。

10、使用以下命令启动oozie服务:

[root@hadoop01 oozie-4.3.0]# ./bin/oozie-start.sh

11、使用以下命令验证服务是否启动成功,

[root@hadoop01 oozie-4.3.0]# oozie admin -oozie http://localhost:11000/oozie -status

如果是System model:Normal,表明启动成功,否则失败。

 

12、查看是否可以通过浏览器访问web页面:

http://192.168.216.111:11000/oozie/

 

 

Oozie4.3 Client安装

Oozie server 安装中已经包括了Oozie client。如果想要在其他机子上也使用Oozie,那么只要在那些机子上安装Oozeiclient即可。

所需环境:

Unix (tested in Linux and Mac OS X)

Java 1.7+

开始安装

14.3.0中有一个oozie-client-4.3.0.tar.gz,将它复制到需要安装oozie client的机子上并解压:

[root@hadoop01 oozie-4.3.0]# tar -zxvf ./oozie-client-4.3.0.tar.gz -C /usr/local/

这时在/usr/local下有一个oozie-client-4.3.0

2、添加环境变量:

注意:上面还可以添加一个环境变量,export OOZIE_URL=http://hadoop01:11000/oozie这样在后面的oozie job这个命令中就不需要加 -oozie

 

Oozie example:

1、/usr/local/oozie-4.3.0下有一个oozie-examples.tar.gz 。将它进行解压,解压之后生成一个examples目录。在该目录的apps中有一些简单的例子:

[root@hadoop01 oozie-4.3.0]# tar -zxvf ./oozie-examples.tar.gz

2、在运行这些例子之前,需要对这些例子进行一些修改,例如我们运行shell这个例子。

 

先来查看一下job.properties的内容:

[root@hadoop01 oozie-4.3.0]# vi ./examples/apps/shell/job.properties

注意:这些例子中JobTracker 都是localhost:8021NameNode 都是hdfs://localhost:8020 。这是hadoop1的端口。我们需要根据自己集群的情况,对它做相应的修改。我现在的hadoop集群是2.7.1版本的。并且NameNodeResourceManager都是HA

3、examples这个文件上传到hdfs中的/user/${user.name} 中,我采用的是root这个用户,所以是/user/root

[root@hadoop01 oozie-4.3.0]# hdfs dfs -put ./examples/ /user/root

4、执行以下命令运行

注意: -oozie 后面跟的是oozie server的地址,-config后面跟的是执行的脚本,除了在hdfs上要有一份examples,在本地也需要一份。这个命令中的/usr/local/oozie-4.3.0/examples/apps/shell/job.properties 是本地路径的job.properties,不是hdfs上的。

[root@hadoop01 oozie-4.3.0]# oozie job -oozie http://hadoop01:11000/oozie -config ./examples/apps/shell/job.properties -run

job: 0000004-180121211627000-oozie-root-W

4、查看oozie的任务信息(或者用浏览器查看):

[root@hadoop01 oozie-4.3.0]# oozie job -oozie http://hadoop01:11000/oozie -info 0000004-180121211627000-oozie-root-W

 

5、查看任务的日志:

[root@hadoop01 oozie-4.3.0]# oozie job -oozie http://hadoop01:11000/oozie -log 0000004-180121211627000-oozie-root-W

 

6、杀死任务:

[root@hadoop01 oozie-4.3.0]# oozie job -oozie http://hadoop01:11000/oozie -kill 0000004-180121211627000-oozie-root-W

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据东哥(Aidon)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值