ETL und ELT mit Python
Jake Roach
Data Engineer
$$

… bewegen Daten von einer Quelle zu einem Ziel und transformieren sie unterwegs.
$$

pandas nutzen$$
$$
$$
$$
def load(data_frame, target_table):
# Eigene Python-Logik zum Laden in SQL
data_frame.to_sql(name=target_table, con=POSTGRES_CONNECTION)
print(f"Loading data to the {target_table} table")
# Jetzt die Pipeline ausführen
extracted_data = extract(file_name="raw_data.csv")
transformed_data = transform(data_frame=extracted_data)
load(data_frame=transformed_data, target_table="cleaned_data")
Extracting data from raw_data.csv
Transforming data to remove 'null' records
Loading data to the cleaned_data table
...
def transform(source_table, target_table):
data_warehouse.run_sql("""
CREATE TABLE {target_table} AS
SELECT
<field-name>, <field-name>, ...
FROM {source_table};
""")
# Ähnlich wie bei ETL-Pipelines: Funktionen zum Extrahieren, Laden und Transformieren aufrufen
extracted_data = extract(file_name="raw_data.csv")
load(data_frame=extracted_data, table_name="raw_data")
transform(source_table="raw_data", target_table="cleaned_data")
$$

ETL und ELT mit Python