airflow.providers.apache.spark.hooks.spark_sql
¶
模組內容¶
類別¶
此 Hook 是 spark-sql 二進制檔案的包裝器;需要 PATH 中有 "spark-sql" 二進制檔案。 |
- class airflow.providers.apache.spark.hooks.spark_sql.SparkSqlHook(sql, conf=None, conn_id=default_conn_name, total_executor_cores=None, executor_cores=None, executor_memory=None, keytab=None, principal=None, master=None, name='default-name', num_executors=None, verbose=True, yarn_queue=None)[原始碼]¶
Bases:
airflow.hooks.base.BaseHook
此 Hook 是 spark-sql 二進制檔案的包裝器;需要 PATH 中有 “spark-sql” 二進制檔案。
- 參數
sql (str) – 要執行的 SQL 查詢
conn_id (str) – connection_id 字串
total_executor_cores (int | None) – (僅限獨立和 Mesos) 所有執行器的總核心數 (預設:worker 上所有可用的核心)
executor_cores (int | None) – (僅限獨立和 YARN) 每個執行器的核心數 (預設:2)
executor_memory (str | None) – 每個執行器的記憶體 (例如 1000M, 2G) (預設:1G)
keytab (str | None) – 包含 keytab 的檔案完整路徑
master (str | None) – spark://host:port, mesos://host:port, yarn, 或 local (預設:連線中設定的
host
和port
,或"yarn"
)name (str) – Job 的名稱。
num_executors (int | None) – 要啟動的執行器數量
verbose (bool) – 是否將 verbose 標誌傳遞給 spark-sql
yarn_queue (str | None) – 要提交到的 YARN 佇列 (預設:連線中設定的
queue
值,或"default"
)