airflow dag调用实例

# -*- coding:utf-8 -*-
from datetime import timedelta
from airflow import DAG
from airflow.contrib.operators.ssh_operator import SSHOperator
from airflow.utils.dates import days_ago

default_args = {
    'owner': 'admin',
    'depends_on_past': False,
    'start_date': days_ago(7),
    'email_on_failure': False,
    'email_on_retry': False,
    'retries': 1,
    'retry_delay': timedelta(minutes=5)
}

dag = DAG(
    'dag_id_name',
    default_args=default_args,
    catchup=True,
    description='dag descrptions',
    schedule_interval='0 5 * * 5',  # 北京时间:每周5,每天0点5分执行(分 时 月 年 周 秒 )
)

t =SSHOperator(
                task_id='dag_task_id_name',
                ssh_conn_id='service' ,   # ssh 免密登录设置
                command='nohup python manage.py xxxxx -e {} -d {} -c {} >> /work/logs/123/batch.log 2>&1 &'.format("env", 3, 2),
                dag=dag,
                do_xcom_push=True
)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个使用Airflow DAG进行网络接口请求的示例代码: ```python import requests from datetime import datetime, timedelta from airflow.models import DAG from airflow.operators.python_operator import PythonOperator default_args = { 'owner': 'airflow', 'depends_on_past': False, 'start_date': datetime(2021, 7, 1), 'retries': 1, 'retry_delay': timedelta(minutes=5) } dag = DAG( 'network_api_request', default_args=default_args, schedule_interval=timedelta(days=1) ) def get_api_data(): url = 'https://jsonplaceholder.typicode.com/todos' response = requests.get(url) data = response.json() return data def save_api_data(**context): data = context['task_instance'].xcom_pull(task_ids='get_api_data') with open('/path/to/save/data.json', 'w') as f: f.write(data) get_api_data_task = PythonOperator( task_id='get_api_data', python_callable=get_api_data, dag=dag ) save_api_data_task = PythonOperator( task_id='save_api_data', python_callable=save_api_data, provide_context=True, dag=dag ) get_api_data_task >> save_api_data_task ``` 在这个例子中,我们使用Python的requests库向一个API发送请求,并将其返回的数据保存到本地文件中。我们使用两个PythonOperator来执行两个任务:get_api_data和save_api_data。第一个任务使用get_api_data函数获取API数据,并将数据存储在XCom中。第二个任务使用save_api_data函数从XCom中获取数据,并将其写入本地文件中。 这个DAG每隔一天执行一次,并在执行过程中处理任何错误。你可以根据自己的需要修改该DAG,例如更改请求的API地址或更改数据的保存位置等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小_长颈鹿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值