Preciso dividir meus dados em um conjunto de treinamento (75%) e um conjunto de teste (25%). Atualmente faço isso com o código abaixo:
X, Xt, userInfo, userInfo_train = sklearn.cross_validation.train_test_split(X, userInfo)
No entanto, gostaria de estratificar meu conjunto de dados de treinamento. Como faço isso? Estive examinando o StratifiedKFold
método, mas não me permite especificar a divisão de 75% / 25% e apenas estratificar o conjunto de dados de treinamento.
python
scikit-learn
pir
fonte
fonte
TL; DR: Use StratifiedShuffleSplit com
test_size=0.25
O Scikit-learn oferece dois módulos para divisão estratificada:
n_folds
treinamento / teste de forma que as classes sejam igualmente balanceadas em ambos.Aqui está algum código (diretamente da documentação acima)
>>> skf = cross_validation.StratifiedKFold(y, n_folds=2) #2-fold cross validation >>> len(skf) 2 >>> for train_index, test_index in skf: ... print("TRAIN:", train_index, "TEST:", test_index) ... X_train, X_test = X[train_index], X[test_index] ... y_train, y_test = y[train_index], y[test_index] ... #fit and predict with X_train/test. Use accuracy metrics to check validation performance
n_iter=1
. Você pode mencionar o tamanho do teste aqui mesmo que emtrain_test_split
Código:
>>> sss = StratifiedShuffleSplit(y, n_iter=1, test_size=0.5, random_state=0) >>> len(sss) 1 >>> for train_index, test_index in sss: ... print("TRAIN:", train_index, "TEST:", test_index) ... X_train, X_test = X[train_index], X[test_index] ... y_train, y_test = y[train_index], y[test_index] >>> # fit and predict with your classifier using the above X/y train/test
fonte
0.18.x
,n_iter
deve sern_splits
paraStratifiedShuffleSplit
- e que há uma API ligeiramente diferente para isso: scikit-learn.org/stable/modules/generated/…y
for uma série Pandas, usey.iloc[train_index], y.iloc[test_index]
dataframe index: 2,3,5
the first split in sss:[(array([2, 1]), array([0]))]
:(X_train, X_test = X[train_index], X[test_index]
é chamada, ela se sobrepõeX_train
eX_test
? Por que então não apenas umnext(sss)
?Aqui está um exemplo para dados contínuos / regressão (até que esse problema no GitHub seja resolvido).
min = np.amin(y) max = np.amax(y) # 5 bins may be too few for larger datasets. bins = np.linspace(start=min, stop=max, num=5) y_binned = np.digitize(y, bins, right=True) X_train, X_test, y_train, y_test = train_test_split( X, y, stratify=y_binned )
start
é mínimo estop
máximo de sua meta contínua.right=True
, isso fará com que seu valor máximo seja mais ou menos um compartimento separado e sua divisão sempre falhará porque poucas amostras estarão nesse compartimento extra.fonte
Você pode simplesmente fazer isso com o
train_test_split()
método disponível no Scikit learn:from sklearn.model_selection import train_test_split train, test = train_test_split(X, test_size=0.25, stratify=X['YOUR_COLUMN_LABEL'])
Também preparei um breve GitHub Gist que mostra como a
stratify
opção funciona:https://gist.github.com/SHi-ON/63839f3a3647051a180cb03af0f7d0d9
fonte
Além da resposta aceita por @Andreas Mueller, só quero adicionar como @tangy mencionado acima:
StratifiedShuffleSplit se assemelha mais a train_test_split ( stratify = y) com recursos adicionais de:
fonte
#train_size is 1 - tst_size - vld_size tst_size=0.15 vld_size=0.15 X_train_test, X_valid, y_train_test, y_valid = train_test_split(df.drop(y, axis=1), df.y, test_size = vld_size, random_state=13903) X_train_test_V=pd.DataFrame(X_train_test) X_valid=pd.DataFrame(X_valid) X_train, X_test, y_train, y_test = train_test_split(X_train_test, y_train_test, test_size=tst_size, random_state=13903)
fonte
Atualizando a resposta @tangy acima para a versão atual do scikit-learn: 0.23.2 ( documentação StratifiedShuffleSplit ).
from sklearn.model_selection import StratifiedShuffleSplit n_splits = 1 # We only want a single split in this case sss = StratifiedShuffleSplit(n_splits=n_splits, test_size=0.25, random_state=0) for train_index, test_index in sss.split(X, y): X_train, X_test = X[train_index], X[test_index] y_train, y_test = y[train_index], y[test_index]
fonte