airflow.providers.alibaba.cloud.operators.analyticdb_spark
¶
模組內容¶
類別¶
定義使用者如何開發 AnalyticDB Spark 的抽象基底類別。 |
|
將 Spark SQL 應用程式提交到基礎叢集;包裝 AnalyticDB Spark REST API。 |
|
將 Spark 批次應用程式提交到基礎叢集;包裝 AnalyticDB Spark REST API。 |
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkBaseOperator(*, adb_spark_conn_id='adb_spark_default', region=None, polling_interval=0, **kwargs)[原始碼]¶
基底:
airflow.models.BaseOperator
定義使用者如何開發 AnalyticDB Spark 的抽象基底類別。
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkSQLOperator(*, sql, conf=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, name=None, cluster_id, rg_name, **kwargs)[原始碼]¶
基底:
AnalyticDBSparkBaseOperator
將 Spark SQL 應用程式提交到基礎叢集;包裝 AnalyticDB Spark REST API。
- 參數
sql (str) – 要執行的 SQL 查詢。
conf (dict[Any, Any] | None) – Spark 配置屬性。
driver_resource_spec (str | None) – Spark 驅動程式的資源規格。
executor_resource_spec (str | None) – 每個 Spark 執行器的資源規格。
num_executors (int | str | None) – 要為此應用程式啟動的執行器數量。
name (str | None) – 此應用程式的名稱。
cluster_id (str) – AnalyticDB MySQL 3.0 Data Lakehouse 的叢集 ID。
rg_name (str) – AnalyticDB MySQL 3.0 Data Lakehouse 叢集中的資源群組名稱。
- template_fields: collections.abc.Sequence[str] = ('spark_params',)[原始碼]¶
- class airflow.providers.alibaba.cloud.operators.analyticdb_spark.AnalyticDBSparkBatchOperator(*, file, class_name=None, args=None, conf=None, jars=None, py_files=None, files=None, driver_resource_spec=None, executor_resource_spec=None, num_executors=None, archives=None, name=None, cluster_id, rg_name, **kwargs)[原始碼]¶
基底:
AnalyticDBSparkBaseOperator
將 Spark 批次應用程式提交到基礎叢集;包裝 AnalyticDB Spark REST API。
- 參數
file (str) – 包含要執行應用程式的檔案路徑。
class_name (str | None) – 應用程式 Java/Spark 主類別的名稱。
args (collections.abc.Sequence[str | int | float] | None) – 應用程式命令行參數。
conf (dict[Any, Any] | None) – Spark 配置屬性。
jars (collections.abc.Sequence[str] | None) – 在此應用程式中要使用的 JAR 檔。
py_files (collections.abc.Sequence[str] | None) – 在此應用程式中要使用的 Python 檔案。
files (collections.abc.Sequence[str] | None) – 在此應用程式中要使用的檔案。
driver_resource_spec (str | None) – Spark 驅動程式的資源規格。
executor_resource_spec (str | None) – 每個 Spark 執行器的資源規格。
num_executors (int | str | None) – 要為此應用程式啟動的執行器數量。
archives (collections.abc.Sequence[str] | None) – 在此應用程式中要使用的封存檔。
name (str | None) – 此應用程式的名稱。
cluster_id (str) – AnalyticDB MySQL 3.0 Data Lakehouse 的叢集 ID。
rg_name (str) – AnalyticDB MySQL 3.0 Data Lakehouse 叢集中的資源群組名稱。
- template_fields: collections.abc.Sequence[str] = ('spark_params',)[原始碼]¶