Fundamental Big Data dengan PySpark
Upendra Devisetty
Science Analyst, CyVerse


Transformasi RDD dasar
map(), filter(), flatMap(), dan union()
RDD = sc.parallelize([1,2,3,4])
RDD_map = RDD.map(lambda x: x * x)

RDD = sc.parallelize([1,2,3,4])
RDD_filter = RDD.filter(lambda x: x > 2)

RDD = sc.parallelize(["hello world", "how are you"])
RDD_flatmap = RDD.flatMap(lambda x: x.split(" "))

inputRDD = sc.textFile("logs.txt")
errorRDD = inputRDD.filter(lambda x: "error" in x.split())
warningsRDD = inputRDD.filter(lambda x: "warnings" in x.split())
combinedRDD = errorRDD.union(warningsRDD)
Operasi yang mengembalikan nilai setelah menjalankan komputasi pada RDD
Aksi RDD dasar
collect()
take(N)
first()
count()
collect() mengembalikan semua elemen sebagai array
take(N) mengembalikan array berisi N elemen pertama
RDD_map.collect()
[1, 4, 9, 16]
RDD_map.take(2)
[1, 4]
RDD_map.first()
[1]
RDD_flatmap.count()
5
Fundamental Big Data dengan PySpark