YDB Operators 使用指南¶
簡介¶
Apache Airflow 擁有大量的 operators,可以用來實作構成您工作流程的各種任務。Airflow 本質上是一個由任務(節點)和依賴關係(邊)組成的圖(有向無環圖)。
由 operator 定義或實作的任務是您資料管道中的一個工作單元。
本指南的目的是定義與 YDB 資料庫互動的任務,使用 YDBExecuteQueryOperator
。
使用 YDBExecuteQueryOperator 的常見資料庫操作¶
YDBExecuteQueryOperator 執行 DML 或 DDL 查詢。operators 的參數為:
sql
- 包含查詢的字串;is_ddl
- 標示查詢是否為 DDL 的旗標。預設值為false
;conn_id
- YDB 連線 ID。預設值為ydb_default
;params
- 要注入到查詢中的參數(如果它是 Jinja 模板),有關 params 的更多詳細資訊
注意
參數 is_ddl
可能在 operator 的未來版本中移除。
建立 YDB 表格¶
以下程式碼片段基於 Airflow-2.0
# create_pet_table, populate_pet_table, get_all_pets, and get_birth_date are examples of tasks created by
# instantiating the YDB Operator
ENV_ID = os.environ.get("SYSTEM_TESTS_ENV_ID")
DAG_ID = "ydb_operator_dag"
@task
def populate_pet_table_via_bulk_upsert():
hook = YDBHook()
column_types = (
ydb.BulkUpsertColumns()
.add_column("pet_id", ydb.OptionalType(ydb.PrimitiveType.Int32))
.add_column("name", ydb.PrimitiveType.Utf8)
.add_column("pet_type", ydb.PrimitiveType.Utf8)
.add_column("birth_date", ydb.PrimitiveType.Utf8)
.add_column("owner", ydb.PrimitiveType.Utf8)
)
rows = [
{"pet_id": 3, "name": "Lester", "pet_type": "Hamster", "birth_date": "2020-06-23", "owner": "Lily"},
{"pet_id": 4, "name": "Quincy", "pet_type": "Parrot", "birth_date": "2013-08-11", "owner": "Anne"},
]
hook.bulk_upsert("pet", rows=rows, column_types=column_types)
with DAG(
dag_id=DAG_ID,
start_date=datetime.datetime(2020, 2, 2),
schedule="@once",
catchup=False,
) as dag:
create_pet_table = YDBExecuteQueryOperator(
task_id="create_pet_table",
sql="""
CREATE TABLE pet (
pet_id INT,
name TEXT NOT NULL,
pet_type TEXT NOT NULL,
birth_date TEXT NOT NULL,
owner TEXT NOT NULL,
PRIMARY KEY (pet_id)
);
""",
is_ddl=True, # must be specified for DDL queries
)
將 SQL 陳述式傾印到您的 operator 中並不是很吸引人,並且會在未來造成維護上的困擾。為了避免這種情況,Airflow 提供了一個優雅的解決方案。它的運作方式如下:您只需在 DAG 資料夾內建立一個名為 sql
的目錄,然後將所有包含 SQL 查詢的 SQL 檔案放入其中。
您的 dags/sql/pet_schema.sql
應該像這樣
-- create pet table
CREATE TABLE pet (
pet_id INT,
name TEXT NOT NULL,
pet_type TEXT NOT NULL,
birth_date TEXT NOT NULL,
owner TEXT NOT NULL,
PRIMARY KEY (pet_id)
);
現在讓我們重構 DAG 中的 create_pet_table
create_pet_table = YDBExecuteQueryOperator(
task_id="create_pet_table",
sql="sql/pet_schema.sql",
)
將資料插入 YDB 表格¶
假設我們已經在 dags/sql/pet_schema.sql
檔案中有了下面的 SQL insert 陳述式
-- populate pet table
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (1, 'Max', 'Dog', '2018-07-05', 'Jane');
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (2, 'Susie', 'Cat', '2019-05-01', 'Phil');
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (3, 'Lester', 'Hamster', '2020-06-23', 'Lily');
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (4, 'Quincy', 'Parrot', '2013-08-11', 'Anne');
然後我們可以建立一個 YDBExecuteQueryOperator 任務來填充 pet
表格。
populate_pet_table = YDBExecuteQueryOperator(
task_id="populate_pet_table",
sql="sql/pet_schema.sql",
)
從您的 YDB 表格中獲取記錄¶
從您的 YDB 表格中獲取記錄可以簡單到如下所示
get_all_pets = YDBExecuteQueryOperator(
task_id="get_all_pets",
sql="SELECT * FROM pet;",
)
將參數傳遞到 YDBExecuteQueryOperator¶
BaseOperator 類別具有 params
屬性,YDBExecuteQueryOperator 透過繼承可以使用它。params
使以許多有趣的方式動態傳遞參數成為可能。
要找到名為 ‘Lester’ 的寵物的主人
get_birth_date = YDBExecuteQueryOperator(
task_id="get_birth_date",
sql="SELECT * FROM pet WHERE birth_date BETWEEN '{{params.begin_date}}' AND '{{params.end_date}}'",
params={"begin_date": "2020-01-01", "end_date": "2020-12-31"},
)
現在讓我們重構 get_birth_date
任務。與其直接將 SQL 陳述式傾印到我們的程式碼中,不如建立一個 sql 檔案來整理一下。
-- dags/sql/birth_date.sql
SELECT * FROM pet WHERE birth_date BETWEEN '{{params.begin_date}}' AND '{{params.end_date}}';
get_birth_date = YDBExecuteQueryOperator(
task_id="get_birth_date",
sql="sql/birth_date.sql",
params={"begin_date": "2020-01-01", "end_date": "2020-12-31"},
)
完整的 YDB Operator DAG¶
當我們將所有內容放在一起時,我們的 DAG 應該看起來像這樣
# create_pet_table, populate_pet_table, get_all_pets, and get_birth_date are examples of tasks created by
# instantiating the YDB Operator
ENV_ID = os.environ.get("SYSTEM_TESTS_ENV_ID")
DAG_ID = "ydb_operator_dag"
@task
def populate_pet_table_via_bulk_upsert():
hook = YDBHook()
column_types = (
ydb.BulkUpsertColumns()
.add_column("pet_id", ydb.OptionalType(ydb.PrimitiveType.Int32))
.add_column("name", ydb.PrimitiveType.Utf8)
.add_column("pet_type", ydb.PrimitiveType.Utf8)
.add_column("birth_date", ydb.PrimitiveType.Utf8)
.add_column("owner", ydb.PrimitiveType.Utf8)
)
rows = [
{"pet_id": 3, "name": "Lester", "pet_type": "Hamster", "birth_date": "2020-06-23", "owner": "Lily"},
{"pet_id": 4, "name": "Quincy", "pet_type": "Parrot", "birth_date": "2013-08-11", "owner": "Anne"},
]
hook.bulk_upsert("pet", rows=rows, column_types=column_types)
with DAG(
dag_id=DAG_ID,
start_date=datetime.datetime(2020, 2, 2),
schedule="@once",
catchup=False,
) as dag:
create_pet_table = YDBExecuteQueryOperator(
task_id="create_pet_table",
sql="""
CREATE TABLE pet (
pet_id INT,
name TEXT NOT NULL,
pet_type TEXT NOT NULL,
birth_date TEXT NOT NULL,
owner TEXT NOT NULL,
PRIMARY KEY (pet_id)
);
""",
is_ddl=True, # must be specified for DDL queries
)
populate_pet_table = YDBExecuteQueryOperator(
task_id="populate_pet_table",
sql="""
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (1, 'Max', 'Dog', '2018-07-05', 'Jane');
UPSERT INTO pet (pet_id, name, pet_type, birth_date, owner)
VALUES (2, 'Susie', 'Cat', '2019-05-01', 'Phil');
""",
)
get_all_pets = YDBExecuteQueryOperator(task_id="get_all_pets", sql="SELECT * FROM pet;")
get_birth_date = YDBExecuteQueryOperator(
task_id="get_birth_date",
sql="SELECT * FROM pet WHERE birth_date BETWEEN '{{params.begin_date}}' AND '{{params.end_date}}'",
params={"begin_date": "2020-01-01", "end_date": "2020-12-31"},
)
(
create_pet_table
>> populate_pet_table
>> populate_pet_table_via_bulk_upsert()
>> get_all_pets
>> get_birth_date
)
結論¶
在本使用指南中,我們探索了 Apache Airflow YDBExecuteQueryOperator 以連線到 YDB 資料庫。讓我們快速重點說明一下重點。最佳實務是在您的 dags
目錄中建立名為 sql
的子目錄,您可以在其中儲存您的 sql 檔案。這將使您的程式碼更優雅且更易於維護。最後,我們查看了 sql 腳本的模板化版本以及 params
屬性的用法。