1、在3台机器上都要下载一次
以下是在hadoop101上执行, 在hadoop100,hadoop102一样的下载
[hadoop@hadoop101 ~]$ pip3 install apache-airflow==2.0.0
[hadoop@hadoop101 ~]$ pip3 install apache-airflow[celery]
[hadoop@hadoop101 ~]$ pip3 install apache-airflow[mysql]
[hadoop@hadoop101 ~]$ pip3 install apache-airflow[reids] -i
http://pypi.douban.com/simple/ --trusted-host pypi.douban.com
1
2
3
4
5
2、配置Airflow工作目录的环境变量
在3台机器上都要配置一次、最好使用xsync脚本同步
[hadoop@hadoop101 ~]$ vim /etc/profile
添加如下
export AIRFLOW_HOME=~/app/airflow
1
2
3
3 配置airflow命令
下载apache-airflow包后,在python环境的bin目录下会生成airflow命令, 需要自己配置到全局调用, 我是用软连接挂在到/usr/local/bin
如
[hadoop@hadoop101 bin]$ pwd
/usr/local/python3/bin
[hadoop@hadoop101 bin]$ ll | grep airflow
-rwxr-xr-x. 1 hadoop hadoop 231 1月 6 19:58 airflow
创建软连接
[hadoop