Airflow Logs

dag_process_manager:scheduler有个功能是监控airflow_dags目录下面的dag文件,然后同步到数据库的dag表中,这是添加dag记录的唯一方法,没有其他的入口可以添加一个新的dag;数据库里的dag记录都是Scheduler扫描airflow_dags目录自动生成的;此文件夹中的日志文件dag_process_manager.log记录的便是此过程的日志;
dag_ids:每个dag一个目录,这是dag的执行日志,dag目录下是每个task的目录,每个task一个目录,task目录下面是一个UTC时间戳为名称的目录,这个时间戳也就是task的运行时间,没运行一次,生成一个目录,这个目录下面才是日志文件,可能会retry多次,每次一个日志,从1.log开始排,也就是taskinstance的日志;从概念部分的依赖可以看到,dag_id/task_id/taskInstance timestamp/retry_time.log

scheduler/按日期每天一个目录,latest目录是当天信息,每个dag一个日志文件,里面记录了此dag的调度记录;

/root/airflow/logs
|-- dag_processor_manager
|   `-- dag_processor_manager.log
|-- example_kubernetes_executor
|   |-- start_task
|   |   `-- 2019-04-16T01:36:05.221216+00:00
|   |       `-- 1.log
|   `-- three_task
|       `-- 2019-04-16T01:36:05.221216+00:00
|           `-- 1.log
|-- example_kubernetes_operator
|   `-- task
|       |-- 2019-04-15T11:20:42.700220+00:00
|       |   `-- 1.log
|       |-- 2019-04-16T00:28:55.663149+00:00
|       |   `-- 1.log
|       |-- 2019-04-16T00:59:23.045582+00:00
|       |   `-- 1.log
|       `-- 2019-04-16T01:23:56.996640+00:00
|           `-- 1.log
`-- scheduler
    |-- 2019-04-15
    |   |-- example_kubernetes_executor.py.log
    |   |-- example_kubernetes_executor_config.py.log
    |   `-- example_kubernetes_operator.py.log
    |-- 2019-04-16
    |   |-- example_kubernetes_executor.py.log
    |   `-- example_kubernetes_operator.py.log
    `-- latest -> /root/airflow/logs/scheduler/2019-04-16

16 directories, 12 files

以下是在Docker上安装Apache Airflow的步骤: 1. 首先,您需要安装Docker和Docker Compose。您可以在官方Docker文档中找到有关如何安装Docker的指南:https://docs.docker.com/install/ 2. 接下来,创建一个新的目录,用于存储Airflow相关文件。在该目录中创建一个名为docker-compose.yaml的文件,并将以下内容添加到文件中: ``` version: '3' services: postgres: image: postgres environment: POSTGRES_USER: airflow POSTGRES_PASSWORD: airflow POSTGRES_DB: airflow ports: - "5432:5432" volumes: - ./pgdata:/var/lib/postgresql/data webserver: image: apache/airflow:2.1.0 depends_on: - postgres environment: - LOAD_EX=n - EXECUTOR=Local - POSTGRES_USER=airflow - POSTGRES_PASSWORD=airflow - POSTGRES_DB=airflow volumes: - ./dags:/opt/airflow/dags - ./logs:/opt/airflow/logs - ./plugins:/opt/airflow/plugins ports: - "8080:8080" command: webserver scheduler: image: apache/airflow:2.1.0 depends_on: - postgres environment: - LOAD_EX=n - EXECUTOR=Local - POSTGRES_USER=airflow - POSTGRES_PASSWORD=airflow - POSTGRES_DB=airflow volumes: - ./dags:/opt/airflow/dags - ./logs:/opt/airflow/logs - ./plugins:/opt/airflow/plugins command: scheduler ``` 此文件定义了三个服务:一个PostgreSQL数据库服务,一个Web服务器服务和一个调度器服务。Web服务器服务和调度器服务都使用Apache Airflow 2.1.0的官方Docker镜像。 3. 在该目录中创建三个新的子目录:dags、logs和plugins。这些目录将分别用于存储您的DAG、日志和插件。 4. 运行以下命令启动Airflow: ``` docker-compose up ``` 此命令将下载所需的Docker镜像并启动三个服务。您可以使用以下URL访问Airflow Web界面:http://localhost:8080 5. 如果您想停止Airflow,请按CTRL-C并运行以下命令: ``` docker-compose down ``` 这将停止并删除所有相关容器和网络。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

陈振阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值