Fique por dentro das novidades
Inscreva-se em nossa newsletter para receber atualizações sobre novas resoluções, dicas de estudo e informações que vão fazer a diferença na sua preparação!
Questão ativa
Já visualizadas
Não visualizadas
Resolução pendente
Questão anulada
Sem alternativas

O conceito de entropia permeia diversas áreas do conhecimento e foi introduzido na Teoria da Informação por Claude Shannon, que desenvolveu uma forma de calcular a entropia E de um sistema, a saber
em que é a probabilidade do i-ésimo resultado para a variável 𝑥.
Por exemplo, considere uma sequência com duas letras A coloridas, a primeira azul e a segunda vermelha (AA). Se essas duas letras fossem colocadas numa urna, a probabilidade de se retirar, sem observar, a letra azul, como na sequência original, é . Devolve-se a letra à urna e sorteia-se novamente. A probabilidade de sair vermelha é novamente , e nesse caso tem-se:
Para uma sequência com 4 letras A, as duas primeiras azuis e as duas últimas vermelhas (AAAA), colocando-as numa urna e sorteando uma, a probabilidade de sair azul é . Devolve-se a letra e sorteia-se novamente. A probabilidade da segunda letra sorteada ser azul, como na sequência original, é novamente . Procedendo dessa forma para as duas letras vermelhas, tem-se:
Com base nessas informações, qual o valor da entropia 𝐸, no caso de uma sequência com 4 letras A, sendo as 3 primeiras azuis e a última vermelha (AAAA)?
Com 4 letras “A”, a probabilidade de ocorrer azul é e a de ocorrer vermelha é .
Logo, a entropia pode ser calculada como:
Inscreva-se em nossa newsletter para receber atualizações sobre novas resoluções, dicas de estudo e informações que vão fazer a diferença na sua preparação!