Depois de convertidos para a forma numérica, os modelos não respondem de maneira diferente às colunas com codificação one-hot do que a qualquer outro dado numérico. Portanto, existe um claro precedente para normalizar os valores {0,1} se você estiver fazendo isso por algum motivo para preparar outras colunas.
O efeito de fazer isso dependerá da classe do modelo e do tipo de normalização que você aplicar, mas observei algumas (pequenas) melhorias ao escalar para significar 0, std 1 para dados categóricos codificados com um hot hot, ao treinar redes neurais.
Também pode fazer diferença para as classes de modelo baseadas em métricas de distância.
Infelizmente, como a maioria desses tipos de escolhas, muitas vezes você precisa tentar as duas abordagens e escolher a que tem a melhor métrica.