Articles of por

¿Cómo usar groupby para aplicar múltiples funciones a múltiples columnas en Pandas?

Tengo un df normal A = pd.DataFrame([[1, 5, 2], [2, 4, 4], [3, 3, 1], [4, 2, 2], [5, 1, 4]], columns=[‘A’, ‘B’, ‘C’], index=[1, 2, 3, 4, 5]) Siguiendo esta receta , obtuve los resultados que quería. In [62]: A.groupby((A[‘A’] > 2)).apply(lambda x: pd.Series(dict( up_B=(xB >= 0).sum(), down_B=(xB = 0).sum(), down_C=(xC < 0).sum(), mean_C=(xC).mean(), […]

Python pandas groupby key error en pandas.hashtable.PyObjectHashTable.get_item

Estoy haciendo lo que parece ser un grupo simple en Pandas. La columna es una columna de cadena sin cadenas de NaN o cadenas extrañas. Sin embargo, sigo recibiendo el error de abajo. ¿Alguien sabe por qué sucede esto? Siento que puede tener algo que ver con mis datos, pero todo parece estar bien … […]

¿Hay una operación “desagrupar por” frente a .groupby en pandas?

Supongamos que partimos de esta tabla simple, almacenada en un dataframe de pandas: name age family 0 john 1 1 1 jason 36 1 2 jane 32 1 3 jack 26 2 4 james 30 2 Entonces lo hago group_df = df.groupby(‘family’) group_df = group_df.aggregate({‘name’: name_join, ‘age’: pd.np.mean}) donde name_join es una función de agregación […]

Python divide un dataframe de pandas por semana o mes y agrupa los datos en función de estos sp

DateOccurred CostCentre TimeDifference 03/09/2012 2073 28138 03/09/2012 6078 34844 03/09/2012 8273 31215 03/09/2012 8367 28160 03/09/2012 8959 32037 03/09/2012 9292 30118 03/09/2012 9532 34200 03/09/2012 9705 27240 03/09/2012 10085 31431 03/09/2012 10220 22555 04/09/2012 6078 41126 04/09/2012 7569 31101 04/09/2012 8273 30994 04/09/2012 8959 30064 04/09/2012 9532 34655 04/09/2012 9705 26475 04/09/2012 10085 31443 04/09/2012 […]

Marco de datos de Pandas: Agrupe por dos columnas y luego promedie sobre otra columna

Suponiendo que tengo un dataframe con los siguientes valores: df: col1 col2 value 1 2 3 1 2 1 2 3 1 Quiero primero agrupar por mi dataframe en base a las dos primeras columnas (col1 y col2) y luego promediar sobre los valores de la columna de sed (valor). Entonces la salida deseada se […]

Python Pandas Groupby () Resultado

Tengo el siguiente dataframe de los pandas de Python: df = pd.DataFrame( { ‘A’: [1,1,1,1,2,2,2,3,3,4,4,4], ‘B’: [5,5,6,7,5,6,6,7,7,6,7,7], ‘C’: [1,1,1,1,1,1,1,1,1,1,1,1] } ); df ABC 0 1 5 1 1 1 5 1 2 1 6 1 3 1 7 1 4 2 5 1 5 2 6 1 6 2 6 1 7 3 7 1 […]

Pandas – devuelve un dataframe después de groupby

Tengo una pandas df : Name No A 1 A 2 B 2 B 2 B 3 Quiero agrupar por Name columna, sum de columna No y luego devolver un dataframe de 2 columnas como este: Name No A 3 B 7 Lo intenté: df.groupby([‘Name’])[‘No’].sum() pero no devuelve mi deseo de dataframe. No puedo agregar […]

seleccionando una fila particular de un objeto groupby en python

id marks year 1 18 2013 1 25 2012 3 16 2014 2 16 2013 1 19 2013 3 25 2013 2 18 2014 Supongamos ahora que agrupo lo anterior en id por comando python. agrupado = archivo.grupo (archivo.id) Me gustaría obtener un archivo nuevo con solo la fila en cada grupo con el año […]

Tablas de frecuencia en pandas (como plyr en R)

Mi problema es cómo calcular frecuencias en múltiples variables en pandas. Tengo de este dataframe: d1 = pd.DataFrame( {‘StudentID’: [“x1”, “x10”, “x2″,”x3”, “x4”, “x5”, “x6”, “x7”, “x8”, “x9”], ‘StudentGender’ : [‘F’, ‘M’, ‘F’, ‘M’, ‘F’, ‘M’, ‘F’, ‘M’, ‘M’, ‘M’], ‘ExamenYear’: [‘2007′,’2007′,’2007′,’2008′,’2008′,’2008′,’2008′,’2009′,’2009′,’2009’], ‘Exam’: [‘algebra’, ‘stats’, ‘bio’, ‘algebra’, ‘algebra’, ‘stats’, ‘stats’, ‘algebra’, ‘bio’, ‘bio’], ‘Participated’: [‘no’,’yes’,’yes’,’yes’,’no’,’yes’,’yes’,’yes’,’yes’,’yes’], […]

Uso de cumsum en pandas en grupo ()

De un novato de Pandas: tengo datos que se parecen esencialmente a esto: data1=pd.DataFrame({‘Dir’:[‘E’,’E’,’W’,’W’,’E’,’W’,’W’,’E’], ‘Bool’:[‘Y’,’N’,’Y’,’N’,’Y’,’N’,’Y’,’N’], ‘Data’:[4,5,6,7,8,9,10,11]}, index=pd.DatetimeIndex([’12/30/2000′,’12/30/2000′,’12/30/2000′,’1/2/2001′,’1/3/2001′,’1/3/2001′,’12/30/2000′,’12/30/2000′])) data1 Out[1]: Bool Data Dir 2000-12-30 Y 4 E 2000-12-30 N 5 E 2000-12-30 Y 6 W 2001-01-02 N 7 W 2001-01-03 Y 8 E 2001-01-03 N 9 W 2000-12-30 Y 10 W 2000-12-30 N 11 E Y […]