Grundlagen von Big Data mit PySpark
Upendra Devisetty
Science Analyst, CyVerse


Grundlegende RDD-Transformationen
map(), filter(), flatMap() und union()
RDD = sc.parallelize([1,2,3,4])
RDD_map = RDD.map(lambda x: x * x)

RDD = sc.parallelize([1,2,3,4])
RDD_filter = RDD.filter(lambda x: x > 2)

RDD = sc.parallelize(["hello world", "how are you"])
RDD_flatmap = RDD.flatMap(lambda x: x.split(" "))

inputRDD = sc.textFile("logs.txt")
errorRDD = inputRDD.filter(lambda x: "error" in x.split())
warningsRDD = inputRDD.filter(lambda x: "warnings" in x.split())
combinedRDD = errorRDD.union(warningsRDD)
Aktionen geben nach der Berechnung auf dem RDD einen Wert zurück
Grundlegende RDD-Aktionen
collect()
take(N)
first()
count()
collect() gibt alle Elemente des Datasets als Array zurück
take(N) gibt ein Array mit den ersten N Elementen zurück
RDD_map.collect()
[1, 4, 9, 16]
RDD_map.take(2)
[1, 4]
RDD_map.first()
[1]
RDD_flatmap.count()
5
Grundlagen von Big Data mit PySpark