A resposta trivial é que mais dados são sempre preferidos a menos dados.
O problema do tamanho pequeno da amostra é claro. Tecnicamente, na regressão linear (OLS), você pode ajustar um modelo como OLS em que n = k + 1, mas você obterá lixo disso, ou seja, erros padrão muito grandes. Existe um excelente artigo de Arthur Goldberger chamado Micronumerocity sobre esse tópico, que está resumido no capítulo 23 de seu livro Um Curso em Econometria .
Uma heurística comum é que você deve ter 20 observações para cada parâmetro que deseja estimar. É sempre uma troca entre o tamanho dos seus erros padrão (e, portanto, testes de significância) e o tamanho da sua amostra. Essa é uma das razões pelas quais alguns de nós odeiam o teste de significância, pois você pode obter um erro padrão incrivelmente pequeno (relativo) com uma amostra enorme e, portanto, encontrar significância estatística sem sentido em testes ingênuos, como se um coeficiente de regressão é zero.
Embora o tamanho da amostra seja importante, a qualidade da sua amostra é mais importante, por exemplo, se a amostra é generalizável para a população, é uma Amostra Aleatória Simples ou alguma outra metodologia de amostragem apropriada (e isso foi contabilizado durante a análise), há erro de medição , viés de resposta, viés de seleção etc.