Introducción a Spark SQL

Introducción a PySpark

Benjamin Schmidt

Data Engineer

¿Qué es Spark SQL?

  • Módulo en Apache Spark para procesar datos estructurados
  • Permite ejecutar consultas SQL junto con tareas de procesamiento de datos
  • Combina Python y SQL en una sola aplicación
  • Interfaz DataFrame: Acceso programático a datos estructurados
Introducción a PySpark

Creando tablas temporales

# Inicializar sesión de Spark
spark = SparkSession.builder.appName("Spark SQL Example").getOrCreate()

# DataFrame de ejemplo data = [("Alice", "HR", 30), ("Bob", "IT", 40), ("Cathy", "HR", 28)] columns = ["Name", "Department", "Age"] df = spark.createDataFrame(data, schema=columns)
# Registrar DataFrame como vista temporal df.createOrReplaceTempView("people")
# Consultar usando SQL result = spark.sql("SELECT Name, Age FROM people WHERE Age > 30") result.show()
Introducción a PySpark

Profundizando en vistas temporales

  • Las vistas temporales protegen los datos al hacer análisis
  • Cargar desde un CSV usa métodos que ya conocemos
    df = spark.read.csv("path/to/your/file.csv", header=True, inferSchema=True)
    
# Registrar DataFrame como vista temporal
df.createOrReplaceTempView("employees")
Introducción a PySpark

Combinando operaciones SQL y DataFrame

# Resultado de consulta SQL
query_result = spark.sql("SELECT Name, Salary FROM employees WHERE Salary > 3000")

# Transformación de DataFrame high_earners = query_result.withColumn("Bonus", query_result.Salary * 0.1) high_earners.show()
Introducción a PySpark

¡Vamos a practicar!

Introducción a PySpark

Preparing Video For Download...