Digamos que a tarefa é determinar a posição do elemento na imagem. A primeira coisa muito importante é a detecção correta do objeto; em seguida, alguns algoritmos de posição de cálculo são usados (para análise de bloqueios examble). Tudo depende de várias coisas (correção da detecção, algoritmos usados etc.)
Vamos supor que temos uma imagem calibrada e saber o erro causado pela calibração. Quais são os métodos para calcular com precisão confiável os algoritmos de visão por computador (e máquina)? Isso pode ser feito analiticamente ou apenas por experimentos e testes?
A questão inclui casos em que detectamos a posição do elemento e também outros problemas de visão computacional.
Desejo obter referências a problemas relacionados à visão computador / máquina, especialmente a detecção de posição dos elementos, e apresentar alguns cálculos de correção, tanto analíticos quanto experimentais, para mostrar essa precissão.
Também são bem-vindas sugestões de como melhorar essa questão.
Isso não responde a toda a pergunta, mas trata de parte do que o OP pergunta.
Isso só pode ser feito experimentalmente. Para fazer isso analiticamente, seria necessário obter informações sobre o que o algoritmo deveria ter retornado. Mas, para saber isso, você precisa de um algoritmo de visão computacional sempre correto conhecido para comparar (além de descrições analíticas detalhadas da imagem que está sendo testada). As soluções analíticas exigem o conhecimento de uma verdade básica que é analítica, e não gerada manualmente, caso a caso. Mas não temos uma maneira analítica de gerar uma verdade básica - é isso que estamos tentando desenvolver.
Dado que isso só pode ser feito experimentalmente, convém consultar o google scholar. Se você estiver atrás da localização das pessoas, haverá muitos papéis dedicados à localização de uma pessoa, ou partes de uma pessoa, como cabeça ou mãos. A localização do carro também terá muita atenção especializada. Outros objetos querem apenas algoritmos genéricos.
fonte