Não existe uma técnica que elimine completamente o risco de sobreajuste. Os métodos que você listou são apenas maneiras diferentes de ajustar um modelo linear. Um modelo linear terá um mínimo global, e esse mínimo não deve mudar, independentemente do sabor da descida do gradiente que você estiver usando (a menos que esteja usando regularização); portanto, todos os métodos listados serão superajustados (ou underfit) igualmente.
Passando de modelos lineares para modelos mais complexos, como o aprendizado profundo, você corre ainda mais risco de sofrer ajustes excessivos. Eu tive muitas redes neurais complicadas que se ajustaram muito mal, mesmo que a convolução reduza a chance de se ajustar demais, compartilhando pesos. Em resumo, não existe um marcador de prata para o ajuste excessivo, independentemente da família do modelo ou da técnica de otimização.