Data opschonen met PySpark
Mike Metzger
Data Engineering Consultant
Parquet-bestanden lezen
df = spark.read.format('parquet').load('filename.parquet')
df = spark.read.parquet('filename.parquet')
Parquet-bestanden schrijven
df.write.format('parquet').save('filename.parquet')
df.write.parquet('filename.parquet')
Parquet als opslag voor SparkSQL-bewerkingen
flight_df = spark.read.parquet('flights.parquet')
flight_df.createOrReplaceTempView('flights')
short_flights_df = spark.sql('SELECT * FROM flights WHERE flightduration < 100')
Data opschonen met PySpark