Teoria De La Informacion

  • Uploaded by: Gustavo
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Teoria De La Informacion as PDF for free.

More details

  • Words: 945
  • Pages: 11
TEORIA DE LA INFORMACION Claude Elwood Shannon

Claude Elwood Shannon  Nacimiento: Claude Elwood

Shannon nació el 30 de abril de 1916 en Petoskey, Michigan, en el seno de una culta familia media americana. Su padre, Claude Elwood, era el juez de una pequeña localidad de tres mil habitantes, llamada Gaylord, y su madre la directora del instituto. Además de sus padres, Shannon recibió una influencia decisiva de su abuelo, un granjero al que gustaba construir todo tipo de máquinas agrícolas, el cual le inculcó dos aficiones que siempre practicaría, la construcción de ingenios electromecánicos y los juegos malabares.

Inicio

Estudios  Los primeros años de su vida los pasó en

Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.  En 1932 ingresó en la Universidad de Míchigan, siguiendo a su hermana Catherine, doctora en matemática. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Su interés por la matemática y la ingeniería continuó durante toda su vida.  En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el Differential Analyzer de Vannevar Bush.

Inicio

Teoría De La Información  La teoría de la información

surgió a finales de la segunda guerra mundial en los años cuarenta. En esta época se buscaba utilizar de manera más eficiente los canales de comunicación, mandando así una cantidad de información por un determinado canal y como medir su capacidad. Esta teoría buscaba la transmisión óptima de los mensajes.  Es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella: canales,

 Utilizó su teoría para medir

la información y su contenido.

 Cuanto más inesperado es

un suceso, mas cantidad de información puede generar

 El contenido de la

información de un suceso = una función decreciente de la probabilidad de su aparición.

 Para traducir las

probabilidades en información Shannon uso el logaritmo de la inversa de Inicio la probabilidad

N° de sucesos por Shannon Formalmente si tenemos un conjunto de n

sucesos, uno de los cuales sabemos con certeza que va a ocurrir, y cada uno con una probabilidad de que ocurra entonces: n

x ∑ i= 1

i

=1

El contenido de información expresado por

Shannon es:

n

1 H ( x) = ∑ xi log xi i =1

Inicio

Entropía (H) y capacidad del emisor n variables

aleatorias con probabilidades

P1….

Pn  H medida en bits por

símbolo  H mide la cantidad de información de una fuente  Concepto clave de la TI  Capacidad de la

n

1 H ( x) = ∑ pi log pi i =1

Inicio

 El nivel de la entropía se interpreta como la diferencia relativa del

contenido de la información  Menos entropía es equivalente a más igualdad n 1 2 4 10 2 2 2 10 10

Sequence of xi 1.00

.

.

.

.

.

.

.

.

.

0.50

0.50

.

.

.

.

.

.

.

.

0.25

0.25 0.25 0.25

.

.

.

.

.

.

0.10

0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10

0.50

0.50

.

.

.

.

.

.

.

.

0.60

0.40

.

.

.

.

.

.

.

.

0.90

0.10

.

.

.

.

.

.

.

.

0.10

0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10 0.10

0.91 0.01 0.01 0.01 0.01 0.01 0.01 0.01 0.01 0.01

sum y=sum x*ln(1/x) 1 0.000 1 0.301 1 0.602 1 1.000 1 0.301 1 0.292 1 0.141 1 1.000 1 0.217

 El caso con más desigualdad es cuando un solo individuo

recibe toda la renta  Si la renta se reparte equitativamente entre mas personas la medida debería incrementarn  Si quitamos renta a n individual (con la misma renta cada uno) y se la damos a un individuo la medida debería decrecer Inicio

Modelo De La Comunicación  El modelo comunicacional desarrollado por Shannon y Weaver se

basa en un sistema de comunicación general que puede ser representado de la siguiente manera:

Inicio

Modelo De La Comunicación FUENTE DE INFORMACION: selecciona el mensaje

deseado de un conjunto de mensajes posibles. TRANSMISOR: transforma o codifica esta información en una forma apropiada al canal. SEÑAL: mensaje codificado por el transmisor. CANAL: medio a través del cual las señales son transmitidas al punto de recepción. FUENTE DE RUIDO: conjunto de distorsiones o adiciones no deseadas por la fuente de información que afectan a la señal. Pueden consistir en distorsiones del sonido (radio, teléfono), distorsiones de la imagen (T.V.), errores de transmisión (telégrafo), etc. RECEPTOR: decodifica o vuelve a transformar la señal transmitida en el mensaje original o en una aproximación de este haciéndolo llegar a su destino.

Inicio

Medición De La Información Este establece que

mientras más probable sea un mensaje menos información proporcionará.

la probabilidad que tiene

un mensaje de ser enviado y no su contenido, lo que determina su valor informativo.

I(Xi) > I(Xk) Si y solo Si

P(Xi) < P(Xk)

I(xi) : cantidad de

información proporcionada por xi. p(xi) : probabilidad de xi

Inicio

Muerte Claude Elwood

Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.

Related Documents


More Documents from ""