Trasforma e analizza i dati con Microsoft Fabric
Luis Silva
Solution Architect - Data & AI


SUM()COUNT()AVG()MIN()MAX()GROUP BYSTDEV()VAR()SELECT
<unaggregated columns>,
function(<aggregated column>)
FROM
<table>
GROUP BY
<unaggregated columns>;
SELECT
[State],
COUNT([Order_ID]) AS [Num Orders],
SUM([Order_Amount]) AS [Total Amount]
FROM
[tbl_Orders]
GROUP BY
[State]

sum()count()avg()min() e max()first() e last()stdev()variance()groupBy() e agg()df.groupBy(<unaggregated columns>)
.agg(function(<aggregated column>))

from pyspark.sql.functions import sum
df.groupBy("state").agg(count("order_id"), sum("order_amount")).show()
pyspark.sql.functions con un'istruzione all'inizio del codice.#----- Importa una o più funzioni:
from pyspark.sql.functions import sum, avg, count, min, max
#----- Importa tutte le funzioni SQL:
from pyspark.sql.functions import *
#----- Importa tutte le funzioni SQL con alias:
import pyspark.sql.functions as F
# chiama sum: F.sum()
SumAverageMedianMin MaxPercentileCount rows


Trasforma e analizza i dati con Microsoft Fabric