Tabela de frequência para uma única variável

97

Uma última pergunta dos pandas novatos do dia: Como faço para gerar uma tabela para uma única série?

Por exemplo:

my_series = pandas.Series([1,2,2,3,3,3])
pandas.magical_frequency_function( my_series )

>> {
     1 : 1,
     2 : 2, 
     3 : 3
   }

Muitas pesquisas no Google me levaram a Series.describe () e pandas.crosstabs, mas nenhum deles faz exatamente o que preciso: uma variável, conta por categorias. Ah, e seria bom se funcionasse para diferentes tipos de dados: strings, ints, etc.

Abe
fonte

Respostas:

153

Talvez .value_counts()?

>>> import pandas
>>> my_series = pandas.Series([1,2,2,3,3,3, "fred", 1.8, 1.8])
>>> my_series
0       1
1       2
2       2
3       3
4       3
5       3
6    fred
7     1.8
8     1.8
>>> counts = my_series.value_counts()
>>> counts
3       3
2       2
1.8     2
fred    1
1       1
>>> len(counts)
5
>>> sum(counts)
9
>>> counts["fred"]
1
>>> dict(counts)
{1.8: 2, 2: 2, 3: 3, 1: 1, 'fred': 1}
DSM
fonte
5
.value_counts().sort_index(1), para evitar que a primeira coluna fique um pouco fora de ordem
smci
9
Existe um equivalente para DataFrame, em vez de série? Tentei executar .value_counts () em um df e obtiveAttributeError: 'DataFrame' object has no attribute 'value_counts'
Mittenchops de
1
Existe uma maneira fácil de converter essas contagens em proporções?
dsaxton
7
@dsaxton você pode usar .value_counts (normalize = True) para converter os resultados em proporções
Potência máxima
2
Para usar isso em um dataframe, converta em sua representação de array numpy 1-D equivalente, como - pd.value_counts(df.values.ravel())que retorna uma série cujos atributos indexe valuescontém os elementos únicos e suas contagens, respectivamente.
Nickil Maveli
11

Você pode usar a compreensão de lista em um dataframe para contar as frequências das colunas como tal

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)]

Demolir:

my_series.select_dtypes(include=['O']) 

Seleciona apenas os dados categóricos

list(my_series.select_dtypes(include=['O']).columns) 

Transforma as colunas de cima em uma lista

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)] 

Repete a lista acima e aplica value_counts () a cada uma das colunas

Shankar ARUL - jupyterdata.com
fonte
5

A resposta fornecida por @DSM é simples e direta, mas pensei em acrescentar minha própria opinião a esta pergunta. Se você olhar o código de pandas.value_counts , verá que há muita coisa acontecendo.

Se você precisar calcular a frequência de muitas séries, isso pode demorar um pouco. Uma implementação mais rápida seria usar numpy.unique comreturn_counts = True

Aqui está um exemplo:

import pandas as pd
import numpy as np

my_series = pd.Series([1,2,2,3,3,3])

print(my_series.value_counts())
3    3
2    2
1    1
dtype: int64

Observe aqui que o item retornado é um pandas.Series

Em comparação, numpy.uniqueretorna uma tupla com dois itens, os valores únicos e as contagens.

vals, counts = np.unique(my_series, return_counts=True)
print(vals, counts)
[1 2 3] [1 2 3]

Você pode então combiná-los em um dicionário:

results = dict(zip(vals, counts))
print(results)
{1: 1, 2: 2, 3: 3}

E então em um pandas.Series

print(pd.Series(results))
1    1
2    2
3    3
dtype: int64
Jon
fonte
0

para distribuição de frequência de uma variável com valores excessivos, você pode reduzir os valores em classes,

Aqui eu valores excessivos para a employratevariável, e não há significado de sua distribuição de frequência comvalues_count(normalize=True)

                country  employrate alcconsumption
0           Afghanistan   55.700001            .03
1               Albania   11.000000           7.29
2               Algeria   11.000000            .69
3               Andorra         nan          10.17
4                Angola   75.699997           5.57
..                  ...         ...            ...
208             Vietnam   71.000000           3.91
209  West Bank and Gaza   32.000000               
210         Yemen, Rep.   39.000000             .2
211              Zambia   61.000000           3.56
212            Zimbabwe   66.800003           4.96

[213 rows x 3 columns]

distribuição de frequência values_count(normalize=True)sem classificação, o comprimento do resultado aqui é 139 (parece sem sentido como uma distribuição de frequência):

print(gm["employrate"].value_counts(sort=False,normalize=True))

50.500000   0.005618
61.500000   0.016854
46.000000   0.011236
64.500000   0.005618
63.500000   0.005618

58.599998   0.005618
63.799999   0.011236
63.200001   0.005618
65.599998   0.005618
68.300003   0.005618
Name: employrate, Length: 139, dtype: float64

colocação classificação colocamos todos os valores com um determinado intervalo, ou seja.

0-10 como 1,
11-20 como 2  
21-30 como 3 e assim por diante.
gm["employrate"]=gm["employrate"].str.strip().dropna()  
gm["employrate"]=pd.to_numeric(gm["employrate"])
gm['employrate'] = np.where(
   (gm['employrate'] <=10) & (gm['employrate'] > 0) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=20) & (gm['employrate'] > 10) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=30) & (gm['employrate'] > 20) , 2, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=40) & (gm['employrate'] > 30) , 3, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=50) & (gm['employrate'] > 40) , 4, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=60) & (gm['employrate'] > 50) , 5, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=70) & (gm['employrate'] > 60) , 6, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=80) & (gm['employrate'] > 70) , 7, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=90) & (gm['employrate'] > 80) , 8, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=100) & (gm['employrate'] > 90) , 9, gm['employrate']
   )
print(gm["employrate"].value_counts(sort=False,normalize=True))

após a classificação, temos uma distribuição de frequência clara. aqui podemos ver facilmente, que 37.64%dos países têm taxa de emprego entre 51-60% e 11.79%dos países têm taxa de emprego entre71-80%

5.000000   0.376404
7.000000   0.117978
4.000000   0.179775
6.000000   0.264045
8.000000   0.033708
3.000000   0.028090
Name: employrate, dtype: float64
Harshit Jain
fonte