1.多job工作流flow
1.第一个job文本文件
# command.job
type=command
command=echo 'hello world'
2.第二个job文本文件最后一行添加依赖即可
# command.job
type=command
command=echo 'bar job'
dependencies=foo //第一个job文件的名字
之后需要将两个文件打包到一个压缩包中上传即可
2.HDFS操作任务
hdfs命令的job
# command.job
type=command
command=/export/servers/hadoop-2.6.0-cdh5.14.0/bin/hadoop fs -mkdir /azkaban
3.MapReduce任务
MapReduce
#command.job
type=command
command=/export/servers/hadoop-2.6.0-cdh5.14.0/bin/hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.14.0.jar pi 3 5
需要把jar包和job文件一起打包压缩
4.Hive脚本任务
1.先写一个sql文件
create database if not exists azhive;
use azhive;
create table if not exists aztest(id string,name string) row format delimited fields terminated by '\t';
2.再写Job文件,并把两个文件打包到一起
# command.job
type=command
command=/export/servers/hive-1.1.0-cdh5.14.0/bin/hive -f 'hive.sql'
5.创建项目执行任务
1.创建项目
3.执行任务