Eu tenho um dataframe do pandas (este é apenas um pequeno pedaço)
>>> d1
y norm test y norm train len(y_train) len(y_test) \
0 64.904368 116.151232 1645 549
1 70.852681 112.639876 1645 549
SVR RBF \
0 (35.652207342877873, 22.95533537448393)
1 (39.563683797747622, 27.382483096332511)
LCV \
0 (19.365430594452338, 13.880062435173587)
1 (19.099614489458364, 14.018867136617146)
RIDGE CV \
0 (4.2907610988480362, 12.416745648065584)
1 (4.18864306788194, 12.980833914392477)
RF \
0 (9.9484841581029428, 16.46902345373697)
1 (10.139848213735391, 16.282141345406522)
GB \
0 (0.012816232716538605, 15.950164822266007)
1 (0.012814519804493328, 15.305745202851712)
ET DATA
0 (0.00034337162272515505, 16.284800366214057) j2m
1 (0.00024811554516431878, 15.556506191784194) j2m
>>>
Quero dividir todas as colunas que contêm tuplas. Por exemplo, quero substituir a coluna LCV
pelas colunas LCV-a
e LCV-b
.
Como eu posso fazer isso?
Em conjuntos de dados muito maiores, descobri que
.apply()
alguns pedidos são mais lentos do quepd.DataFrame(df['b'].values.tolist(), index=df.index)
Este problema de desempenho foi resolvido no GitHub, embora eu não concorde com esta decisão:
https://github.com/pandas-dev/pandas/issues/11615
EDITAR: com base nesta resposta: https://stackoverflow.com/a/44196843/2230844
fonte
pd.DataFrame(df['b'].tolist())
sem o.values
parece funcionar muito bem também. (E obrigado, sua solução é muito mais rápida do que.apply()
)O
str
acessador que está disponível parapandas.Series
objetos dedtype == object
é, na verdade, um iterável.Suponha que
pandas.DataFrame
df
:df = pd.DataFrame(dict(col=[*zip('abcdefghij', range(10, 101, 10))])) df col 0 (a, 10) 1 (b, 20) 2 (c, 30) 3 (d, 40) 4 (e, 50) 5 (f, 60) 6 (g, 70) 7 (h, 80) 8 (i, 90) 9 (j, 100)
Podemos testar se é um iterável
from collections import Iterable isinstance(df.col.str, Iterable) True
Podemos então atribuir a partir dele como fazemos com outros iteráveis:
var0, var1 = 'xy' print(var0, var1) x y
Solução mais simples
Então, em uma linha, podemos atribuir as duas colunas
df['a'], df['b'] = df.col.str df col a b 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
Solução mais rápida
Apenas um pouco mais complicado, podemos usar
zip
para criar um iterável semelhantedf['c'], df['d'] = zip(*df.col) df col a b c d 0 (a, 10) a 10 a 10 1 (b, 20) b 20 b 20 2 (c, 30) c 30 c 30 3 (d, 40) d 40 d 40 4 (e, 50) e 50 e 50 5 (f, 60) f 60 f 60 6 (g, 70) g 70 g 70 7 (h, 80) h 80 h 80 8 (i, 90) i 90 i 90 9 (j, 100) j 100 j 100
Na linha
Significando, não modifique o existente
df
Isso funciona porque
assign
leva argumentos de palavra-chave onde as palavras-chave são os nomes de coluna novos (ou existentes) e os valores serão os valores da nova coluna. Você pode usar um dicionário e descompactá-lo**
e fazê-lo funcionar como os argumentos de palavra-chave. Portanto, esta é uma maneira inteligente de atribuir uma nova coluna chamada'g'
que é o primeiro item dodf.col.str
iterável e'h'
que é o segundo item dodf.col.str
iterável.df.assign(**dict(zip('gh', df.col.str))) col g h 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
Minha versão da
list
abordagemCom compreensão de lista moderna e descompactação variável.
Nota: também inline usando
join
df.join(pd.DataFrame([*df.col], df.index, [*'ef'])) col g h 0 (a, 10) a 10 1 (b, 20) b 20 2 (c, 30) c 30 3 (d, 40) d 40 4 (e, 50) e 50 5 (f, 60) f 60 6 (g, 70) g 70 7 (h, 80) h 80 8 (i, 90) i 90 9 (j, 100) j 100
A versão mutante seria
df[['e', 'f']] = pd.DataFrame([*df.col], df.index)
Teste de Tempo Ingênuo
DataFrame curtoUse um definido acima
Long DataFrame%timeit df.assign(**dict(zip('gh', df.col.str))) %timeit df.assign(**dict(zip('gh', zip(*df.col)))) %timeit df.join(pd.DataFrame([*df.col], df.index, [*'gh'])) 1.16 ms ± 21.5 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each) 635 µs ± 18.7 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each) 795 µs ± 42.5 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
10 ^ 3 vezes maior
df = pd.concat([df] * 1000, ignore_index=True) %timeit df.assign(**dict(zip('gh', df.col.str))) %timeit df.assign(**dict(zip('gh', zip(*df.col)))) %timeit df.join(pd.DataFrame([*df.col], df.index, [*'gh'])) 11.4 ms ± 1.53 ms per loop (mean ± std. dev. of 7 runs, 100 loops each) 2.1 ms ± 41.4 µs per loop (mean ± std. dev. of 7 runs, 100 loops each) 2.33 ms ± 35.1 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
fonte
df['a'], df['b'] = df.col.str
:)Acho que uma maneira mais simples é:
>>> import pandas as pd >>> df = pd.DataFrame({'a':[1,2], 'b':[(1,2), (3,4)]}) >>> df a b 0 1 (1, 2) 1 2 (3, 4) >>> df['b_a']=df['b'].str[0] >>> df['b_b']=df['b'].str[1] >>> df a b b_a b_b 0 1 (1, 2) 1 2 1 2 (3, 4) 3 4
fonte
str
representação de umpd.Series
objeto. Você pode explicar como isso funciona ?!Eu sei que isso é de um tempo atrás, mas uma ressalva da segunda solução:
pd.DataFrame(df['b'].values.tolist())
é que ele descartará explicitamente o índice e adicionará um índice sequencial padrão, enquanto a resposta aceita
não, pois o resultado de apply manterá o índice de linha. Embora a ordem seja inicialmente mantida a partir da matriz original, os pandas tentarão combinar os indicadores dos dois dataframes.
Isso pode ser muito importante se você estiver tentando definir as linhas em um array indexado numericamente, e o pandas automaticamente tentará combinar o índice do novo array com o antigo, causando alguma distorção na ordem.
Uma solução híbrida melhor seria definir o índice do dataframe original para o novo, ou seja,
pd.DataFrame(df['b'].values.tolist(), index=df.index)
O que manterá a velocidade de uso do segundo método, garantindo que a ordem e a indexação sejam mantidas no resultado.
fonte