No comentário de Andrew sobre minha outra pergunta , ele observou que era possível renderizar texto para um Texture2D usando a API do Windows, em vez de desenhar o texto diretamente com um SpriteBatch. Como isso é feito? Suponho que haja uma etapa intermediária antes de gravar os dados da imagem em um Texture2D.
Estou perguntando porque isso me permitiria renderizar caracteres Unicode on-the-fly, em vez de precisar pré-renderizar todos os glifos necessários usando um SpriteFont (muitos glifos em coreano e japonês para tornar essa rota inviável, infelizmente). Obrigado!