Interagir avec les DataFrames PySpark

Principes fondamentaux des mégadonnées avec PySpark

Upendra Devisetty

Science Analyst, CyVerse

Opérateurs DataFrame en PySpark

  • Opérations DataFrame : transformations et actions

  • Transformations DataFrame :

    • select(), filter(), groupby(), orderby(), dropDuplicates(), et withColumnRenamed()
  • Actions DataFrame :

    • printSchema(), head(), show(), count(), columns et describe()

    Correction : printSchema() est une méthode pour tout dataset/dataframe Spark et non une action

Principes fondamentaux des mégadonnées avec PySpark

Opérations select() et show()

  • La transformation select() sous-sélectionne des colonnes du DataFrame
df_id_age = test.select('Age')
  • L’action show() affiche les 20 premières lignes du DataFrame
df_id_age.show(3)
+---+
|Age|
+---+
| 17|
| 17|
| 17|
+---+
only showing top 3 rows
Principes fondamentaux des mégadonnées avec PySpark

Opérations filter() et show()

  • La transformation filter() filtre les lignes selon une condition
new_df_age21 = new_df.filter(new_df.Age > 21)
new_df_age21.show(3)
+-------+------+---+
|User_ID|Gender|Age|
+-------+------+---+
|1000002|     M| 55|
|1000003|     M| 26|
|1000004|     M| 46|
+-------+------+---+
only showing top 3 rows
Principes fondamentaux des mégadonnées avec PySpark

Opérations groupby() et count()

  • L’opération groupby() permet de regrouper une variable
test_df_age_group = test_df.groupby('Age')
test_df_age_group.count().show(3)
+---+------+
|Age| count|
+---+------+
| 26|219587|
| 17|     4|
| 55| 21504|
+---+------+
only showing top 3 rows
Principes fondamentaux des mégadonnées avec PySpark

Transformations orderby()

  • orderby() trie le DataFrame selon une ou plusieurs colonnes
test_df_age_group.count().orderBy('Age').show(3)
+---+-----+
|Age|count|
+---+-----+
|  0|15098|
| 17|    4|
| 18|99660|
+---+-----+
only showing top 3 rows
Principes fondamentaux des mégadonnées avec PySpark

dropDuplicates()

  • dropDuplicates() supprime les lignes dupliquées d’un DataFrame
test_df_no_dup = test_df.select('User_ID','Gender', 'Age').dropDuplicates()
test_df_no_dup.count()
5892
Principes fondamentaux des mégadonnées avec PySpark

Transformations withColumnRenamed

  • withColumnRenamed() renomme une colonne du DataFrame
test_df_sex = test_df.withColumnRenamed('Gender', 'Sex')
test_df_sex.show(3)
+-------+---+---+
|User_ID|Sex|Age|
+-------+---+---+
|1000001|  F| 17|
|1000001|  F| 17|
|1000001|  F| 17|
+-------+---+---+
Principes fondamentaux des mégadonnées avec PySpark

printSchema()

  • L’opération printSchema() affiche les types des colonnes du DataFrame
test_df.printSchema()
 |-- User_ID: integer (nullable = true)
 |-- Product_ID: string (nullable = true)
 |-- Gender: string (nullable = true)
 |-- Age: string (nullable = true)
 |-- Occupation: integer (nullable = true)
 |-- Purchase: integer (nullable = true)
Principes fondamentaux des mégadonnées avec PySpark

Actions columns

  • L’opérateur columns affiche les colonnes d’un DataFrame
test_df.columns
['User_ID', 'Gender', 'Age']
Principes fondamentaux des mégadonnées avec PySpark

Actions describe()

  • describe() calcule des statistiques descriptives des colonnes numériques du DataFrame
test_df.describe().show()
+-------+------------------+------+------------------+
|summary|           User_ID|Gender|               Age|
+-------+------------------+------+------------------+
|  count|            550068|550068|            550068|
|   mean|1003028.8424013031|  null|30.382052764385495|
| stddev|1727.5915855307312|  null|11.866105189533554|
|    min|           1000001|     F|                 0|
|    max|           1006040|     M|                55|
+-------+------------------+------+------------------+
Principes fondamentaux des mégadonnées avec PySpark

Passons à la pratique !

Principes fondamentaux des mégadonnées avec PySpark

Preparing Video For Download...