sábado, 24 de marzo de 2012

TEORÍA MATEMÁTICA DE LA INFORMACIÓN

El autor de esta teoría fue Claude E. Shannon quien dice que:
La información proporcionada por la materialización de un suceso depende de la probabilidad de su acaecimiento; proporciona tanta más información cuanto mayor sea la sorpresa que produce, es decir, cuanto menor fuera la probabilidad de su acaecimiento.
Ejemplo:

En un principio, pensábamos que una moneda era perfecta, pero recibimos un mensaje que dice que existe una probabilidad del 75% de que salga cara. Si la información se mide en nits, ¿Cuál es la información de canal de ese mensaje?
Al lanzar una moneda pueden ocurrir dos sucesos, que salga cara [ c ] o que salga cruz [ x ], a priori la probabilidad que salga cara o cruz es del 50% (pensábamos que era perfecta), por lo que Pc = Px = 0,50.
Después del mensaje, sabemos que Qc = 0,75 y Qx = 0,25

*Nit: Unidad de medida, no estandar.

No hay comentarios:

Publicar un comentario