Na teoria da codificação, 'quão bom é um código' significa quantos erros de canal podem ser corrigidos, ou melhor, o nível máximo de ruído com o qual o código pode lidar.
Para obter códigos melhores, os códigos são projetados usando um alfabeto grande (em vez de um código binário). E então, o código é bom se puder lidar com uma grande taxa de "símbolos" errados.
Por que isso não é considerado trapaça? Quero dizer, não devemos nos preocupar apenas com o que acontece quando "traduzimos" cada símbolo em uma string binária? A "taxa de erro de bit" é diferente da taxa de "erro de símbolo". Por exemplo, a taxa de erro de bits não pode exceder 1/2, enquanto (se eu entendi isso corretamente), com alfabeto grande o suficiente, o erro de símbolo pode ir até . Isso ocorre porque restringimos artificialmente o canal para alterar apenas "símbolos" em vez de bits ou porque o código é realmente melhor?
fonte
Respostas:
Muitos códigos amplamente usados para dados binários são códigos concatenados, compostos usando dois códigos de correção de erros. O código interno está sobre um alfabeto binário e o código externo está sobre um alfabeto cujos símbolos correspondem às palavras de código do código interno. Isso permite que você use o poder superior de tamanhos maiores de alfabeto para codificar mensagens binárias sem "trapacear".
A definição padrão de distância mínima é natural quando se considera códigos concatenados, bem como na teoria dos códigos em tamanhos grandes de alfabeto. Seria apenas "trapaça" se você usasse esses números para comparar um código binário com um código de alfabeto grande que codifica a entrada binária sem usar também um código interno; os teóricos da codificação são espertos o bastante para não fazer isso (e acredito que, desde que os códigos concatenados foram inventados, os códigos de alfabeto grande costumam ser usados junto com um código interno, mas os códigos de alfabeto grande também são muito bons para corrigir erros em canais rajados, como como CDs, pois um grande número de erros consecutivos de bits afetará apenas alguns "símbolos").
fonte