用於 DataprocSubmitJobOperator 與 hadoop 任務的範例 Airflow DAG。
模組內容
-
tests.system.google.cloud.dataproc.example_dataproc_flink.ENV_ID[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.DAG_ID = 'dataproc_flink'[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.PROJECT_ID[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.BUCKET_NAME[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.CLUSTER_NAME_BASE[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.CLUSTER_NAME_FULL[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.CLUSTER_NAME[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.REGION = 'europe-west1'[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.OUTPUT_FOLDER = 'wordcount'[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.OUTPUT_PATH[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.CLUSTER_CONFIG[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.FLINK_JOB[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.create_bucket[原始碼]
-
tests.system.google.cloud.dataproc.example_dataproc_flink.test_run[原始碼]