por exemplo. se eu tiver uma pontuação de crédito variável de classe com duas classes boa e ruim, em que # (bom) = 700 e # (ruim) = 300. Não quero reduzir meus dados. qual técnica devo usar? Eu estava usando SVM, mas está dando tudo de bom em previsões.
classification
binary-data
asad.taj
fonte
fonte
Respostas:
O tamanho da amostra da sua classe não parece tão desequilibrado, pois você tem 30% de observações na sua classe minoritária. A regressão logística deve ter bom desempenho no seu caso. Dependendo do número de preditores que entram no seu modelo, você pode considerar algum tipo de penalização para a estimativa de parâmetros, como crista (L2) ou laço (L1). Para uma visão geral dos problemas de classe muito desequilibrada, consulte Cramer (1999), The Statistician, 48: 85-94 ( PDF ).
Não conheço as técnicas de pontuação de crédito, mas encontrei alguns documentos que sugerem que você poderia usar o SVM com classes ponderadas, por exemplo, máquinas de vetores de suporte para pontuação de crédito: extensão a casos não padrão . Como alternativa, você pode examinar os métodos de reforço com CART ou Random Forests (no último caso, é possível adaptar a estratégia de amostragem para que cada classe seja representada ao construir as árvores de classificação). O artigo de Novak e LaDue discute os prós e contras do GLM vs particionamento recursivo . Também encontrei este artigo, Construção de Scorecard com classes desequilibradas de Hand e Vinciotti.
fonte
Uma abordagem popular para resolver problemas de desequilíbrio de classe é influenciar o classificador para que ele preste mais atenção às instâncias positivas. Isso pode ser feito, por exemplo, aumentando a penalidade associada à classificação incorreta da classe positiva em relação à classe negativa. Outra abordagem é pré-processar os dados sobreamostrando a classe majoritária ou subamostrando a classe minoritária para criar um conjunto de dados balanceado.
Na fase de pré-processamento de dados, lembre-se de que o SVM exige que cada instância de dados seja representada como um vetor de números reais. Portanto, se houver atributos categóricos, é recomendável convertê-los em dados numéricos, usando m números para representar um atributo da categoria m (ou substituindo-o por m novas variáveis binárias).
Além disso, o dimensionamento das variáveis antes da aplicação do SVM é crucial, a fim de evitar atributos em intervalos numéricos maiores, dominando aqueles em intervalos numéricos menores.
Confira este documento .
Se você estiver trabalhando em R, confira a função de ajuste (pacote e1071) para ajustar os hiperparâmetros usando uma pesquisa de grade nos intervalos de parâmetros fornecidos. Em seguida, usando plot.tune , é possível ver visualmente qual conjunto de valores fornece a menor taxa de erro.
Há um atalho em torno da pesquisa de parâmetros demorada. Existe um pacote R chamado "svmpath" que calcula todo o caminho de regularização para um classificador SVM de 2 classes de uma só vez. Aqui está um link para o artigo que descreve o que está fazendo.
PS Você também pode achar este documento interessante: Obtendo estimativas de probabilidade calibradas
fonte
Eu recomendaria usar um valor diferente do parâmetro de regularização C para exemplos da classe positiva e exemplos da classe negativa (muitos pacotes SVM suportam isso e, em qualquer caso, são facilmente implementados). Em seguida, use, por exemplo, validação cruzada para encontrar bons valores dos dois parâmetros de regularização.
Pode-se mostrar que isso é re-amostragem assintoticamente equivalente dos dados em uma proporção determinada por C + e C- (portanto, não há vantagem em re-amostrar, em vez de pesar novamente, eles têm a mesma coisa no final e nos pesos pode ser contínuo, e não discreto, por isso oferece um controle mais preciso).
Não basta escolher C + e C- para atribuir uma ponderação de 50 a 50 aos padrões positivos e negativos, pois a força do efeito do problema das "classes de desequilíbrios" variará de conjunto de dados para conjunto de dados; A ponderação não pode ser determinada a priori.
Lembre-se também de que os custos falso-positivos e falso-negativos podem ser diferentes, e o problema pode se resolver se estes forem incluídos na determinação de C + e C-.
Também é importante ter em mente que, para alguns problemas, a regra de decisão ideal de Bayes atribui todos os padrões a uma única classe e ignora a outra, de modo que não é necessariamente uma coisa ruim - pode significar apenas que a densidade dos padrões de uma classe está em toda parte abaixo da densidade de padrões da outra classe.
fonte