Big Data Fundamentals met PySpark
Upendra Devisetty
Science Analyst, CyVerse


Basis-RDD-transformaties
map(), filter(), flatMap() en union()
RDD = sc.parallelize([1,2,3,4])
RDD_map = RDD.map(lambda x: x * x)

RDD = sc.parallelize([1,2,3,4])
RDD_filter = RDD.filter(lambda x: x > 2)

RDD = sc.parallelize(["hello world", "how are you"])
RDD_flatmap = RDD.flatMap(lambda x: x.split(" "))

inputRDD = sc.textFile("logs.txt")
errorRDD = inputRDD.filter(lambda x: "error" in x.split())
warningsRDD = inputRDD.filter(lambda x: "warnings" in x.split())
combinedRDD = errorRDD.union(warningsRDD)
Operaties die een waarde teruggeven na berekening op het RDD
Basis-RDD-acties
collect()
take(N)
first()
count()
collect() geeft alle elementen van de dataset terug als een array
take(N) geeft een array met de eerste N elementen van de dataset
RDD_map.collect()
[1, 4, 9, 16]
RDD_map.take(2)
[1, 4]
RDD_map.first()
[1]
RDD_flatmap.count()
5
Big Data Fundamentals met PySpark