airflow.providers.alibaba.cloud.hooks.analyticdb_spark
¶
模組內容¶
類別¶
AnalyticDB Spark 應用程式狀態。 |
|
用於透過 REST API 連接 AnalyticDB MySQL Spark 的 Hook。 |
- class airflow.providers.alibaba.cloud.hooks.analyticdb_spark.AppState[原始碼]¶
基底類別:
enum.Enum
AnalyticDB Spark 應用程式狀態。
請參閱: https://www.alibabacloud.com/help/en/analyticdb-for-mysql/latest/api-doc-adb-2021-12-01-api-struct -sparkappinfo。
- class airflow.providers.alibaba.cloud.hooks.analyticdb_spark.AnalyticDBSparkHook(adb_spark_conn_id='adb_spark_default', region=None, *args, **kwargs)[原始碼]¶
基底類別:
airflow.hooks.base.BaseHook
、airflow.utils.log.logging_mixin.LoggingMixin
用於透過 REST API 連接 AnalyticDB MySQL Spark 的 Hook。
- 參數
adb_spark_conn_id (str) – 用於 AnalyticDB MySQL Spark 認證的 Airflow 連線。
region (str | None) – 您想要提交 Spark 應用程式的 AnalyticDB MySQL 區域。
- submit_spark_app(cluster_id, rg_name, *args, **kwargs)[原始碼]¶
執行請求以提交 Spark 應用程式。
- 參數
cluster_id (str) – AnalyticDB MySQL 3.0 Data Lakehouse 的叢集 ID。
rg_name (str) – AnalyticDB MySQL 3.0 Data Lakehouse 叢集中的資源群組名稱。
- submit_spark_sql(cluster_id, rg_name, *args, **kwargs)[原始碼]¶
執行請求以提交 Spark SQL。
- 參數
cluster_id (str) – AnalyticDB MySQL 3.0 Data Lakehouse 的叢集 ID。
rg_name (str) – AnalyticDB MySQL 3.0 Data Lakehouse 叢集中的資源群組名稱。
- static build_submit_app_data(file=None, class_name=None, args=None, conf=None, jars=None, py_files=None, files=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, archives=None, name=None)[原始碼]¶
建立提交應用程式請求資料。
- 參數
file (str | None) – 包含要執行之應用程式的檔案路徑。
class_name (str | None) – 應用程式 Java/Spark 主類別的名稱。
args (collections.abc.Sequence[str | int | float] | None) – 應用程式命令列引數。
conf (dict[Any, Any] | None) – Spark 組態屬性。
jars (collections.abc.Sequence[str] | None) – 此應用程式中要使用的 Jar 檔。
py_files (collections.abc.Sequence[str] | None) – 此應用程式中要使用的 Python 檔案。
files (collections.abc.Sequence[str] | None) – 此應用程式中要使用的檔案。
driver_resource_spec (str | None) – Spark 驅動程式的資源規格。
executor_resource_spec (str | None) – 每個 Spark Executor 的資源規格。
num_executors (int | str | None) – 此應用程式要啟動的 Executor 數量。
archives (collections.abc.Sequence[str] | None) – 此應用程式中要使用的封存檔。
name (str | None) – 此應用程式的名稱。
- static build_submit_sql_data(sql=None, conf=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, name=None)[原始碼]¶
建立提交 Spark SQL 請求資料。
- 參數
sql (str | None) – 要執行的 SQL 查詢。(已套用範本)
conf (dict[Any, Any] | None) – Spark 組態屬性。
driver_resource_spec (str | None) – Spark 驅動程式的資源規格。
executor_resource_spec (str | None) – 每個 Spark Executor 的資源規格。
num_executors (int | str | None) – 此應用程式要啟動的 Executor 數量。
name (str | None) – 此應用程式的名稱。