Validação de um questionário em uma nova população

8

Tenho 400 respostas a um questionário de 20 itens que pretende medir uma constância atitudinal em estudantes de medicina. O instrumento foi validado nos EUA por um único ano de estudantes de medicina e os dados publicados são muito "limpos" - todos os valores de ritc> 0,3, alfa 0,84, PCA com uma estrutura estável de quatro fatores, etc. Na minha amostra, encontrei 5 de 20 itens com ritc <0,2 e em uma subpopulação cultural (n = 70) esses valores de ritc são zero / negativos. Se eu reter todos os itens, aqueles com ritmo fraco não carregam nenhum fator ou se transformam em um fator de dois itens juntos (fator 4). Sugiro que (e gostaria de investigar) isso se deve a (i) uma pequena subpopulação cultural para a qual a construção pode ser mal capturada, ou (ii) porque tenho respostas dos alunos em todas as etapas de um programa e há um aspecto de desenvolvimento no construto mal capturado pelos itens da escala. Existe um teste estatístico que me permita investigar isso?

Os itens com ritc devem ser excluídos da balança e, em caso afirmativo, faço isso sequencialmente, iniciando com o menor e em que momento devo parar de excluir os itens / perdi algo do questionário? Se eu quiser comparar a estrutura fatorial da escala entre as subpopulações maiores e menores, como tento isso ou a subamostra menor é muito pequena para tirar conclusões? Todas as referências serão muito apreciadas.

Por fim, o objetivo de validar a escala é usá-la para determinar a eficácia de uma intervenção usando um escore pré e pós-intervenção - se um item tem um baixo ritmo, presumo que ele possa impactar a confiabilidade da escala em um ambiente experimental, ou estou incorreto? Existe alguma maneira estatística de determinar a utilidade de uma escala projetada para medir construções que têm um aspecto de desenvolvimento - ou seja, todos os itens funcionam adequadamente quando o aluno desenvolve "mais" do construto atitudinal?

suzi
fonte
1
O que é "ritc"?
gung - Restabelece Monica
+1 para @Gung. Eu também não sei e meu diploma é em psicometria.
Peter Flom
Oi desculpe não saiu como eu esperava quando typing- é o item- corrigido valor de correlação total para cada item da escala
Suzi
1
Você tem muita coisa acontecendo. Com um número suficiente de perguntas e respostas, você poderá responder a algumas perguntas de maneira satisfatória neste site, mas para progredir mais do que isso, provavelmente precisará da ajuda profunda de um consultor.
Rolando2
2
Eu concordo com @ rolando2. Um pensamento rápido, porém, não tenho certeza se é bom confiar em uma análise fatorial para 20 itens com base em 70 respondentes.
David

Respostas:

1

@suzi Uma das propriedades nas quais a análise Rasch se baseia é que as medidas são invariantes aos subgrupos. Essa propriedade suporta o desenvolvimento de testes adaptativos de computador e equações de teste. Se essa invariância de medida for verdadeira em uma população, não haverá um item diferencial de funcionamento (DIF). Para ajudá-lo com sua amostra, você pode executar uma análise Rasch para cada subgrupo e comparar o funcionamento do item de cada item para cada subgrupo. Se as medidas do item diferirem em mais de 0,50 logits (ou mais que os intervalos de confiança de 95% das medidas), o DIF estará presente e o item não será invariável. Enquanto seus subgrupos tiverem pelo menos 70 assuntos, você ficará bem.

Um excelente artigo sobre a aplicação desse princípio é "Rasch Fit Statistics como um teste da invariância das estimativas de parâmetros de itens", Smith, Richard M. e Suh, Kyunghee, Journal of Applied Measurement 4 (2) 153-163.

Conforme declarado nos comentários, esse é um campo amplo e você pode precisar de ajuda. Se um documento for possível, você pode procurar ajuda através do Rasch SIG . O software incluiria Winsteps, Facets, RUMM, eRm e outros programas no R.

Espero que isto ajude.

doug.numbers
fonte
3
O item diferencial não está funcionando?
22414 Behacad