airflow.providers.databricks.sensors.databricks_sql

此模組包含 Databricks 感測器。

模組內容

類別

DatabricksSqlSensor

在 Databricks 上執行 SQL 查詢的感測器。

class airflow.providers.databricks.sensors.databricks_sql.DatabricksSqlSensor(*, databricks_conn_id=DatabricksSqlHook.default_conn_name, http_path=None, sql_warehouse_name=None, session_configuration=None, http_headers=None, catalog='', schema='default', sql, handler=fetch_all_handler, client_parameters=None, **kwargs)[來源]

基底: airflow.sensors.base.BaseSensorOperator

在 Databricks 上執行 SQL 查詢的感測器。

參數
  • databricks_conn_id (str) – 參考至 Databricks 連線 ID (已套用範本),預設為 DatabricksSqlHook.default_conn_name。

  • sql_warehouse_name (str | None) – Databricks SQL 倉儲的選用名稱。如果未指定,則必須提供 http_path,如下所述,預設為 None

  • http_path (str | None) – 指定 Databricks SQL 倉儲或 All Purpose 叢集 HTTP 路徑的選用字串。如果未指定,則應在 Databricks 連線的額外參數中指定,或必須指定 sql_warehouse_name

  • session_configuration – Spark 會議參數的選用字典。如果未指定,則可以在 Databricks 連線的額外參數中指定,預設為 None

  • http_headers (list[tuple[str, str]] | None) – 將在每個請求上設定為 HTTP 標頭的選用 (k, v) 配對列表。(已套用範本)。

  • catalog (str) – 要使用的選用初始目錄。需要 Databricks Runtime 9.0+ 版本 (已套用範本),預設為 “”

  • schema (str) – 要使用的選用初始結構描述。需要 Databricks Runtime 9.0+ 版本 (已套用範本),預設為 “default”

  • sql (str | collections.abc.Iterable[str]) – 要執行的 SQL 陳述式。

  • handler (Callable[[Any], Any]) – 用於 DbApiHook.run() 以傳回結果的處理常式,預設為 fetch_all_handler

  • client_parameters (dict[str, Any] | None) – Databricks SQL 連接器參數內部的其他參數。

template_fields: collections.abc.Sequence[str] = ('databricks_conn_id', 'sql', 'catalog', 'schema', 'http_headers')[來源]
template_ext: collections.abc.Sequence[str] = ('.sql',)[來源]
template_fields_renderers[來源]
hook()[來源]

建立並傳回 DatabricksSqlHook 物件。

poke(context)[來源]

感測器 poke 函式,用於從 SQL 感測器取得並傳回結果。

這個條目有幫助嗎?