Digamos que você tenha um dispositivo de medição do qual você não conhece a precisão e um dispositivo de medição de referência. Ambos medem uma variável . O intervalo de interesse é . Como você determina a precisão do dispositivo desconhecido nesta faixa?x 0 < x < x 1
Meu curso de ação seria reunir valores para os dois dispositivos de a e criar uma distribuição de erros . A precisão pode ser a extensão do erro, ou algo semelhante - isso está correto?x 1 ± 3 σ
Premissas:
- O dispositivo de medição de referência é calibrado e praticamente não apresenta erros
measurements
statistics
metrology
John HK
fonte
fonte
Respostas:
Sua abordagem é amplamente correta.
Se você está interessado apenas na precisão do seu sistema, provavelmente deseja usar algo como o erro máximo. Sua precisão é +/- Máximo de erro com a suposição de que erros reais são uniformemente distribuídos dentro desse intervalo (uma distribuição uniforme geralmente será uma superestimação, mas é uma opção simples quando não há informações melhores disponíveis).
No entanto, essa abordagem geralmente produz grandes erros devido a efeitos sistemáticos que podem ser facilmente corrigidos ajustando uma curva (normalmente linear) através do gráfico de valores medidos e reais.
Isso deve corrigir o viés no seu instrumento e você pode calcular a incerteza com base no desvio padrão dos resíduos. A incerteza total é normalmente um múltiplo de , a escolha é razoavelmente arbitrária; portanto, você deve indicar o múltiplo (valor k) ou o fator de cobertura associado. Você também deve indicar qual distribuição está assumindo, pois isso afetará o que o múltiplo fornece. uma cobertura específica. Por exemplo, para uma cobertura gaussiana de 95% k ~ 2, mas para uma distribuição uniforme 95% de cobertura k ~ 1,68σ
fonte
A única maneira de determinar a precisão com que qualquer dispositivo de medição fornece medições é calibrá-lo contra um dispositivo de precisão conhecida e erros conhecidos de medições.
Sua técnica está parcialmente correta; não faça apenas a medição de erros para os limites do dispositivo como uma população ou compartimento de amostras. Isso ocorre porque os erros de medição nem sempre são uniformes.
Por exemplo, para leituras entre 0 e 1, o erro pode ser -0,2 e para leituras entre 2 e 3, o erro pode ser +0,6. Seu teste deve ser realizado em faixas ou faixas, independentemente de as unidades serem mm (para réguas), m / s (para anemômetros ou velocímetros) ou Pa (para barômetros).
Para cada faixa / faixa, você determina o erro para essa faixa / faixa e aplica esse erro à medição realizada no dispositivo que precisava de calibração.
fonte
Eu estava em uma equipe de engenheiros de qualidade (mas não um dos especialistas), e eles tinham um visual em que usavam um gráfico 2d em que o eixo X era a primeira medição e Y era a segunda medida do mesmo recurso observável.
Eles repetiam a medida / medida e criavam o que chamavam de "gráfico de salsichas". Eles eliminariam os 2% periféricos das amostras e desenhavam uma "salsicha" ao redor do resto.
Você pode ver visualmente a qualidade do sistema de medição observando a proximidade dos pontos de dados da linha de ângulo de 45 graus.
fonte