Bir sparksubmit operatörü kullanarak hava akışından bir pyspark modülünü tetiklemem gerekiyor. Ancak, pyspark modülünün spark oturum değişkenini bağımsız değişken olarak alması gerekir. Parametreyi pyspark modülüne geçirmek için application_args kullandım. Ancak, dag'yi çalıştırdığımda kıvılcım gönderme operatörü başarısız oluyor ve ilettiğim parametre None type değişkeni olarak kabul edildi. Bir argümanın spark_submıt_operator aracılığıyla tetiklenen bir pyspark modülüne nasıl iletileceğini bilmeniz gerekir.
DAG kodu aşağıdadır:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("PRJT").enableHiveSupport().getOrCreate()
spark_config = {
'conn_id': 'spark_default',
'driver_memory': '1g',
'executor_cores': 1,
'num_executors': 1,
'executor_memory': '1g'
}
dag = DAG(
dag_id="spark_session_prgm",
default_args=default_args,
schedule_interval='@daily',
catchup=False)
spark_submit_task1 = SparkSubmitOperator(
task_id='spark_submit_task1',
application='/home/airflow_home/dags/tmp_spark_1.py',
application_args=['spark'],
**spark_config, dag=dag)
Örnek kod tmp_spark_1.py program: