Estou tentando praticar o TDD no meu projeto pessoal e me pergunto como lidar com a situação quando, após adicionar um novo teste, ele passa desde o início com base na implementação existente?
Por um lado, o novo teste pode fornecer documentação adicional do design e proteção contra violação acidental de suposições.
Por outro lado, se o teste for aprovado sem nenhuma alteração no código, é "suspeito" se ele realmente testa ou não o que deveria.
Basicamente, o que pode ser feito para confirmar a correção do teste que afirma o comportamento já implementado?
unit-testing
tdd
AGrzes
fonte
fonte
Respostas:
Passar em um teste a partir do momento em que você o escreveu pode ser um problema com seu processo TDD, mas isso não significa que ele esteja errado por si só.
Seu teste pode passar por coincidência.
Digamos que você tenha um método que retorne o custo de sacar dinheiro usando um caixa eletrônico. Agora, você é solicitado a adicionar a nova regra de que, se o proprietário do cartão tiver mais de 60 anos, o custo será zero. Portanto, nós o testamos, esperando que falhe:
Você pode esperar que isso falhe. Mas isso passa, já que o cliente passa a ser um cliente VIP, que tem saques gratuitos. Agora você pode voltar para o método retiradaalCost e modificá-lo para que falhe, mas isso não faz muito sentido. Escreva um novo teste para mostrar que seu código está errado:
Agora ele falha, você codifica até que passe e repita até terminar.
Você deve apagar o teste, pois não faz diferença? Não! Ele descreve a funcionalidade esperada do método de retirada ATMCost. Se você apagá-lo e algum dia o custo de retirada de custo 0 para clientes VIP mudar, a primeira afirmação ainda deve ser verdadeira.
Dito isto, para o TDD adequado, você não deve codificar as coisas antes dos testes e depois testar as coisas que sabe que serão aprovadas. Não considero esse o caso que você está perguntando.
Acredito que o ciclo de falha no código-passe deve evitar o desenvolvimento "Vou escrever esses 3 testes que falharão e os 2 que passarão porque eu já o codifiquei sabendo o que o teste seria". Você deve saber que algumas pessoas podem sentir o contrário. Ouça suas razões, elas também podem ser válidas.
fonte
Os testes aprovados desde o início geralmente ocorrem quando alguém implementa algo de uma maneira mais geral do que o necessário para os testes em questão. Isso é bastante normal : os testes de unidade podem fornecer apenas um número pequeno e finito de valores de entrada para uma determinada função, mas a maioria das funções é escrita para uma enorme variedade de possíveis valores de entrada. Geralmente, uma implementação projetada especificamente para os casos de teste atuais seria mais complicada do que uma solução mais geral. Se for esse o caso, seria complicado e propenso a erros projetar artificialmente o código de forma a funcionar apenas nos casos de teste e falhar em todo o resto.
Por exemplo, digamos que você precise de uma função para retornar o mínimo de alguns valores de uma determinada matriz. Você fez uma implementação, conduzida por um teste com uma matriz contendo apenas um ou dois valores. Mas, em vez de implementá-lo de maneira complicada, fazendo comparações em diferentes elementos (talvez apenas os dois primeiros), você chama uma função de mínimo de array da biblioteca padrão do seu ecossistema de idiomas e torna a implementação uma linha única . Quando você agora decide adicionar um teste com uma matriz de cinco elementos, o teste provavelmente será aprovado desde o início.
Mas como você sabe que o teste não é "verde" por causa de um bug no próprio teste? Uma maneira simples e direta de abordar isso é fazer uma modificação temporária no sujeito em teste para que o teste falhe. Por exemplo, você pode adicionar intencionalmente uma linha
if (array.size()==5) return 123
à sua função. Agora seu teste de cinco elementos falhará, então você sabeo que deve lhe dar alguma confiança no teste. Depois de ver o teste falhar, desfaça a modificação e o teste deverá passar novamente.
Como alternativa, você pode modificar o resultado esperado de um teste: digamos que seu teste aprovado contenha uma asserção como
então você pode editar o teste e substituir o "1" por "2". Quando o teste falha (conforme o esperado), você sabe que funciona como deveria e pode desfazer a substituição e ver se o teste agora fica verde. O risco de introduzir um bug no teste por esse tipo de substituição é muito pequeno; portanto, isso provavelmente é aceitável para a maioria dos casos do mundo real.
Uma maneira diferente, talvez discutível, é definir um ponto de interrupção no teste e usar um depurador para percorrê-lo. Isso também deve dar a você certa confiança de que o código do teste é realmente executado e oferece a possibilidade de validar o caminho através do teste por inspeção passo a passo. No entanto, é preciso ter muito cuidado para não ignorar erros em um caminho de código especificamente para um teste com falha. Para testes complexos, considere fazer as duas coisas - fazendo com que falhe artificialmente e use um depurador para inspecioná-lo.
fonte