Digitalizar La digitalización es en la actualidad la herramienta de preservación más completa y satisfactoria que nos brinda la tecnología, nos permite por un lado preservar un original en un formato estándar que no nos cautive a una tecnología o hardware en especial ya que pueden ser migrados de un soporte a otro sin absolutamente ninguna pérdida de calidad ni envejecimiento de masters como sucede en las herramientas mas antiguas como la microfilmación. Las técnicas digitales actuales nos permiten disfrutar de una alta calidad de preservación que nos asegura que el contenido semántico del original será preservado en el tiempo casi incorruptible e indefinidamente. Por otra parte el hecho de tener una representación digital del original, permite a la institución ofrecer al público este acercamiento a la obra sin exponer el original al irreparable deterioro cotidiano de la exposición, sumando la posibilidad de archivar los originales de manera protegida. Muy importante también, es la ilimitada expansión de posibilidades que brinda la informatización de metadatos, de realizar consultas completando campos, es decir, que el banco de imágenes pasa a ser una archivo dinámico que permite cruzar datos, obtener listados de objetos con características similares, visualizar los objetos a través de la imagen, ampliarla, imprimirla, exportarla, y cualquiera de todas las crecientes posibilidades que ofrece el universo informático. Elementos conceptuales 1- fundamentos de la digitalización: Digitalizar en el caso de la imagen fija, es convertir una señal lumínica analógica en información procesable por una computadora. El proceso de digitalización comienza cuando en un escáner o en cualquier dispositivo de digitalización, una imagen en papel es iluminada con un foco, y la luz que refleja es conducida mediante un sistema de espejos hacia un dispositivo denominado CCD (Charge Coupled Device, dispositivo acoplado por carga eléctrica), que consiste en una serie de diodos sensibles a la luz, formado por diodos que registran la luz rojos, verdes y azules, la cantidad de diodos por pulgada determina la resolución del dispositivo. Por ejemplo un escáner de 300 ppp (puntos por pulgada), registra por cada pulgada de papel 300 puntos rojos, 300 verdes, y 300 azules, cada uno de ellos en un diodo exclusivo del CCD. Estos diodos convierten la luz en corriente eléctrica, y dependiendo de la intensidad de luz reflejada la corriente eléctrica va variando su voltaje obteniendo así el tono de cada color. 2
Los impulsos eléctricos que entrega el CCD pasan a un dispositivo denominado DAC (Digital Analogic Converter, Conversor Analógico Digital) que interpreta las variaciones del voltaje eléctrico y las convierte en píxeles digitales. Según la resolución del escáner crea los píxeles por pulgada. El caudal de bits obtenido es transmitido a la computadora por el puerto de conexión del escáner.
Digitalizar es convertir un documento en papel a un documento electrónico. En la práctica, significa “escanear” un documento. De este modo, podremos ver una “fotografía” del documento en la pantalla de nuestra PC. Digitalizar (audio) Digitalizar es la consecuencia de importar audio o grabaciones no procesadas a la computadora. En este proceso el audio se guarda como datos digitales, es decir, en secuencias de unos y ceros.
Cuándo conviene digitalizar: Las necesidades o conveniencias de digitalizar documentos pueden ser variadas. Citamos las principales: • •
• • •
•
Preservación de originales. Si se necesita conservar el original en perfecto estado, se consultan las imágenes en pantalla. Consulta en diferentes ubicaciones geográficas. El documento digitalizado puede verse simultáneamente en diferentes sucursales por ejemplo, sin necesidad de trasladar el original. El original es muy valioso. Se pueden escanear documentos de alto valor y guardar los originales en tesoros, mientras se consultan las imágenes. Acceso inmediato al documento. Un documento digitalizado puede encontrarse en segundos, sin necesidad de buscarlo físicamente. Copia de seguridad. Las imágenes de los documentos son back ups de los originales y preservan la información si estos se extravían, son robados o destruidos por siniestros. Publicación en Internet. Los documentos digitalizados pueden subirse a servidores web y ser consultados desde cualquier parte del mundo
Procesamiento Procesar datos es el equivalente de pensar para la computadora - calculando, comparando y tomando decisiones. La gente también procesa información. Lo que usted ve, oye, toca y siente es "input" o entrada. Después usted conecta este nuevo input, con lo que usted ya sabía, observa cómo encaja todo junto, y saca una conclusión, que es su "output" o salida. "Ese horno está caliente. ¡ Ahora yo sacaré mi mano de allí! "La clase de "pensamiento" que tiene la computadora es muy diferente del que puede tener la gente. Las máquinas tienen que pensar de la manera más difícil. Pueden hacer solamente una cosa por vez, un paso a paso continuo. Los procedimientos complejos deben ser desmenuzados en pasos MUY simples. Después éstos pasos pueden ser repetidos miles de millones de veces. Pueden probarse toda clase de opciones y guardar una lista con lo que funcionó y con lo que no. La gente, por otra parte, es más capaz para reconocer diseños, que para reconocer hechos aislados y procedimientos que se ejecutan paso a paso. Por ejemplo, las fisonomías de personas que son estructuras muy complejas. Una persona puede reconocer cientos y hasta miles de caras diferentes.
Un ser humano puede distinguir una cara de otra fácilmente aunque éstas sean de extranjeros. Usted no reconoce la cara de su Mamá porque su nariz tiene 4 cm de largo y 2,5 cm de ancho y tiene una peca en su lado izquierdo! Usted reconoce el conjunto de la cara de su Mamá. Hay probablemente una cantidad de personas con narices de las mismas dimensiones que las de su Mamá. Pero nadie tiene su cara completa. No obstante esto, una computadora debe tener una cantidad de datos específicos sobre una cara para poder reconocerla. Enseñarle a una computadora para que elija la cara de su Mamá entre las de una multitud es una de las cosas más difíciles que hayan tratado los científicos de realizar hasta la fecha. Sin embargo los bebés lo hacen naturalmente! Podemos afirmar entonces, que las computadoras no pueden pensar en la misma forma que lo hace la gente. Pero lo que hacen lo hacen de manera excelente y muy, muy rápido.
Señal de Audio Una señal de audio es una señal electrónica representada eléctricamente exacta de una señal sonora; normalmente está acotada al rango de frecuencias audibles por los seres humanos que está entre los 20 y los 20 000 Hz, aproximadamente (el equivalente, casi exacto a 10 octavas). Dado que el sonido es una onda de presión se requiere un transductor de presión (un micrófono) que convierte las ondas de presión de aire (ondas sonoras) en señales eléctricas (señales analógicas). La conversión contraria se realiza mediante un altavoz —también llamado altoparlante en algunos países latinoamericanos, por traducción directa del inglés loudspeaker—, que convierte las señales eléctricas en ondas de presión de aire. Un sólo micrófono puede captar adecuadamente todo el rango audible de frecuencias, en cambio para reproducir fidedignamente ese mismo rango de frecuencias suelen requerirse dos altavoces (de agudos y graves) o más. Una señal de audio se puede caracterizar, someramente, por su dinámica (valor de pico, rango dinámico, potencia, relación señal-ruido) o por su composición espectral (ancho de banda, frecuencia fundamental, armónicos, distorsión armónica, etc.). Así, por ejemplo, una señal que represente voz humana (señal vocal) no suele tener información relevante más allá de los 10 kHz, y de hecho en telefonía fija se toman sólo los primeros 4 kHz. Con 2 kHz basta para que la voz sea comprensible, pero no para reconocer al hablante
Señal del video La señal de vídeo se origina a partir de la conversión de variaciones de intensidad de luz por cambios de intensidad eléctrica. Todo esto se produce cuando existen materiales fotosensibles. La imagen de vídeo se forma partiendo de la reproducción de una serie de imágenes por segundo. Con esta sucesión de imágenes a una determinada frecuencia, se logra la sensación de movimiento (framerate). La velocidad a través el cual se visualizan las imágenes se denomina framerate, y es equivalente al número total de imágenes (frames) mostradas en un segundo.
Teorema de Fourier En el apartado anterior hemos visto que mediante la suma de vibraciones armónicas simples es posible construir una nueva vibración. Ahora bien, ¿cualquier vibración, por compleja que sea, puede ser reconstruida mediante una suma de vibraciones armónicas simples? En otras palabras, ¿el modelo elemental que hemos expuesto anteriormente es válido para cualquier vibración? La respuesta es que sí, gracias a los trabajos del matemático francés Fourier (1822) y del matemático alemán Dirichlet (1829), dando como resultado el que hoy llamamos teorema de Fourier(5). Este resultado es fundamental, ya que nos permite el análisis de cualquier vibración a través del estudio de las vibraciones armónicas que la componen. El teorema de Fourier tiene un ámbito de aplicación muy amplio, por lo que nos limitaremos a su expresión fundamental para el caso concreto de nuestras necesidades (6). Así, del teorema de Fourier se deduce que cualquier vibración x(t) que esté definida en un período de tiempo de T seg (y de la cual dispongamos de N muestras), puede reconstruirse exactamente mediante la suma de ondas armónicas
siempre y cuando su media
, y que se satisfaga la relación de Nyquist(7).
El requisito de que la media de la amplitud de la vibración sea 0 no es ninguna limitación en la práctica (ni conceptual), puesto que siempre podemos hacer un cambio de variable de la forma
por lo que
.
La frecuencia de cada vibración armónica viene dada por
siendo N, el número de muestras que tenemos de la vibración. En la práctica, el análisis de Fourier consiste en determinar las dos series de amplitudes {ak} y {bk} de N/2 elementos cada una que corresponda a una vibración dada. Así pues, podemos considerar que cualquier vibración está compuesta por la interacción o interferencia (suma) de un conjunto de ondas armónicas simples, de frecuencia fk, cada una en la magnitud (o proporción) dada por sus amplitudes ak y bk respectivas(8). Como puede suponerse, la identificación de las ondas armónicas que componen una vibración dada, será el objetivo fundamental de cualquier análisis vibratorio.
2.1.3 Representación espectral Una forma muy adecuada de poner de relieve la estructura armónica de cualquier vibración, revelada por su análisis de Fourier, consiste en elaborar su representación espectral. Esta representación nos informa de cuales son las vibraciones armónicas que la componen, y en qué cuantía o proporción intervienen. En la figura Fig. 2.3, mostramos la representación espectral para la vibración de nuestro ejemplo anterior de la Fig. 2.2. Como puede observarse, este espectro nos informa de que la vibración está compuesta por sólo tres vibraciones armónicas (tres líneas verticales) de frecuencias 1, 2 y 4 Hz (según la posición en el eje horizontal de cada línea), y en la cuantía dada por las alturas a1, a2 y a3 (amplitudes de onda) respectivamente.
Una característica importante de la representación espectral reside en su inmediatez visual para revelar la estructura armónica de cualquier vibración. Si observamos la vibración de la Fig. 2.2, difícilmente podríamos deducir que es el producto de la interacción de tres ondas armónicas(9), mientras que si observamos su espectro es evidente que esto es así (tres líneas = tres ondas armónicas). Ahora bien, el teorema de Fourier nos permite reconstruir cualquier vibración a partir de sus ondas armónicas definidas por los conjuntos {ak} y {bk} supuestamente conocidos. Pero lo que realmente nos interesa es como podemos obtener estos conjuntos a partir de la vibración x(t) inicial y así, poder hacer su representación espectral. No obstante, hemos visto como el teorema de Fourier asigna a cada frecuencia armónica fk dos amplitudes, ak y bk, una para la onda armónica coseno y otra para la seno. Por consiguiente, la representación espectral completa tiene que reunir las dos amplitudes de cada frecuencia. Ello se consigue mediante la definición matemática de la amplitud compleja(10)
con lo que la serie (compleja) de Fourier queda determinada por(11)
donde
A Xk se le llama la transformada de Fourier de x(t) y puede evaluarse mediante(12)
En otras palabras, esta es la forma de hallar los coeficientes {ak} y {bk} que definen a la vibración x(t)(13). Volviendo al problema de la representación espectral, esta se define mediante el cálculo del módulo de Xk, puesto que se trata de una función compleja, es decir,
Resumiendo, podemos decir que la representación espectral informa de la composición armónica de cualquier vibración, y que esta se obtiene mediante el cálculo de su DFT dada por (2-12). La descripción que hemos hecho de la Fig. 2.3 es correcta en cuanto a la interpretación básica de la representación espectral, aunque es insuficiente desde el punto de vista matemático. El cálculo de los valores espectrales involucra complejas técnicas de análisis matemático y estadístico, que se apartan de los objetivos de nuestra exposición(14). La representación espectral puede entenderse como un cambio de perspectiva en la visualización de la vibración. Un mismo fenómeno vibratorio puede verse desde su distribución temporal (visualización del movimiento vibratorio) o desde su distribución frecuencial (visualización del espectro).
2.1.4 Entropía espectral El concepto de entropía tiene dos ámbitos de uso distintos en la ciencia actual, aunque en lo fundamental se refieran a un mismo concepto. Por un lado, en la termodinámica y en la física en general, designa el grado de evolución (orden) existente en un sistema. Así, la segunda ley de la termodinámica afirma que, para todo sistema cerrado, la entropía siempre tiende a aumentar, es decir, que todo sistema cerrado siempre tiende al desorden o a la incertidumbre estadística(15). De otra parte, en la teoría de la información, la entropía designa la información [*] media emitida por una fuente de información, es decir, es una medida de la libertad (incertidumbre
estadística) de elección que muestra dicha fuente. En ambos casos, la definición formal (matemática) de la entropía es la misma puesto que se basa en el cálculo de probabilidades. Para nosotros, este concepto tiene interés tanto en su dimensión física, como en su dimensión informativa. Por un lado, el comportamiento verbal es un fenómeno físico y nuestro objetivo es determinar precisamente en que medida existe orden en dicho comportamiento. Pero tampoco debemos olvidar que se trata de un comportamiento fundamentalmente orientado hacia la transmisión de información, y que, como veremos más adelante, esta dimensión va a ser crucial para la comprensión de los resultados de nuestra investigación. Dado un sistema con M sucesos posibles, la entropía se define como
donde pj es la probabilidad del suceso j. Si los sucesos que estamos considerando son la emisión de determinados símbolos por una fuente de información, entonces, la entropía da la información[*] media de dicha fuente, ya que la información[**] de un símbolo j se define como
por lo que,
De la definición del concepto de entropía se desprende que ésta sólo tiene sentido si existe un conjunto de sucesos sobre los cuales dispongamos de una medida de probabilidad. En nuestro caso, la representación espectral puede interpretarse como una distribución de probabilidad, en la que los M sucesos elementales son el conjunto de ondas armónicas, caracterizadas por su frecuencia de vibración fj, y la medida de probabilidad pj de cada armónico, viene dada por la amplitud espectral relativa de cada frecuencia. Es decir, podemos considerar que cualquier vibración es un suceso compuesto de sucesos elementales independientes (ondas armónicas) cuyas probabilidades vienen dadas por el 'peso' relativo con que cada suceso elemental contribuye a la formación del suceso completo.
Para ello, haciendo en nuestro caso M = N/2, sólo tenemos que normalizar el espectro de amplitudes
haciendo
con lo que
Vamos a ver, intuitivamente, como la medida de la entropía, sobre la distribución espectral pk, es capaz de evaluar el grado de orden temporal existente en las vibraciones. Para ello empezamos por considerar el caso en que el orden sea máximo. Se demuestra que la entropía es una medida positiva ( ), por lo que su valor mínimo (mínima incertidumbre / máxima certidumbre / máximo orden) es 0, y esto sólo ocurre cuando existe un suceso con una probabilidad igual a 1, lo que implica que el resto de sucesos tienen una probabilidad igual a 0. En nuestro caso, esto equivale a que en el espectro existiera una sola línea vertical, en cualquier posición, por lo que, la vibración en cuestión estaría compuesta de una sola onda armónica simple, es decir, sería esa misma onda armónica. Evidentemente, esta es la vibración más ordenada posible que pueda darse, independientemente de su amplitud y frecuencia de vibración (ver Fig. 2.1). En el otro extremo, hemos de considerar el caso de la máxima entropía (máximo desorden). La entropía es una medida acotada, es decir, que siempre tiene un límite máximo para cualquier sistema (
). Este máximo depende de la naturaleza de cada sistema.
El caso más simple es cuando el sistema puede adoptar un conjunto de estados limitado. En este caso, la máxima entropía se obtiene cuando la distribución de probabilidad es equiprobable (uniforme). Entonces, la entropía máxima viene dada por
donde M es el número de estados posibles del sistema. En nuestro caso hemos dicho que los sucesos (o estados) de un sistema vibratorio se describen por las ondas armónicas de frecuencia variable. Cada onda armónica se identifica por su frecuencia de vibración f.
Un sistema vibratorio genérico (no constreñido mecánicamente), puede adoptar desde vibraciones muy lentas (próximas a 0 Hz) hasta vibraciones rapidísimas. Teóricamente, y en general, el rango de frecuencias accesibles (estados) puede considerarse infinito y se expresa matemáticamente como [0, ) Hz(16). Para este caso, y suponiendo que el sistema puede acceder a todos los estados con igual probabilidad, la distribución de máxima entropía, queda restringida por la energía del sistema particular que se considere. Dicha distribución de probabilidad recibe el nombre de distribución de Boltzmann(17) y viene dada por(18)
Como puede observarse, esta distribución sólo se ve afectada por la frecuencia media la vibración.
de
El cálculo del valor de la máxima entropía viene dado por
En la Fig. 2.4 representamos la forma que adopta la distribución espectral de Boltzmann para valores distintos de la frecuencia media. En cualquier caso, se trata de una distribución que enfatiza las frecuencias bajas del espectro.
Si representamos una vibración cuya distribución espectral corresponda a una función de Boltzmann con frecuencia media de 14 Hz, tal y como puede apreciarse en la Fig. 2.5, nos daremos cuenta que el desorden es apreciable.
No obstante, pudiera dar la impresión de que este desorden no es el máximo posible, pero debemos recordar que esta vibración ha sido generada con la limitación de que su frecuencia media fuese de 14 Hz. En realidad, sólo podemos aumentar la entropía de la vibración de la figura si se aumenta su frecuencia media. Cuando una vibración tiene una distribución espectral de máxima entropía recibe el nombre de ruido blanco. Este ejemplo nos sirve para introducir la diferencia existente entre entropía y desorden. La entropía no es una medida directa del desorden de un sistema, puesto que el valor absoluto que adopta la entropía depende del 'tamaño' del sistema, es decir, del número de estados accesibles. En realidad la medida del desorden producido viene dada por la llamada entropía relativa Hr, que se calcula haciendo
Donde Hmax es la entropía máxima que admite el sistema y que depende del tipo de restricciones a que esté sometido. Por consiguiente:
para cualquier sistema.
Volviendo al ejemplo de la Fig. 2.5, dicha vibración tiene Hr = 1 (máximo desorden), donde su Hmax ha sido evaluada por (2-21) en función de que = 14 Hz. Ahora bien, hemos de tener en cuenta, que podríamos generar una vibración cuya entropía fuese superior a la del ejemplo ( ), pero que a su vez fuese más ordenada que aquella ( ), puesto que lógicamente su frecuencia media (y su entropía máxima) sería superior a la del ejemplo. Por consiguiente, aunque normalmente se utilice el concepto de entropía como sinónimo de desorden, hay que tener presente que ello se trata de una simplificación en el lenguaje, y que, en propiedad, es la entropía relativa la que evalúa el desorden de un sistema y la que permite hacer comparaciones entre sistemas distintos. En cuanto a las unidades de la entropía, estas dependen de la base que utilicemos para el logaritmo involucrado en su cálculo. Si utilizamos la base 2, la unidad es el bit, si utilizamos logaritmos base e, la unidad es el nat, y si utilizamos la base 10, la unidad es el dit o también se llama hartley. La entropía relativa es independiente de las magnitudes absolutas del sistema que se esté considerando y carece de unidad. Vemos pues, como la medida de la entropía relativa sobre las representaciones espectrales nos da un buen índice del grado de orden/desorden existente en una vibración dada, que en nuestro caso, será el comportamiento verbal articulatorio.
Aparato Digestivo El aparato digestivo es el conjunto de órganos (boca, faringe, esófago, estómago, intestino delgado e intestino grueso) encargados del proceso de la digestión, es decir, la transformación de los alimentos para que puedan ser absorbidos y utilizados por las células del organismo.
POLICIA NACIONAL DEL ECUADOR
TRABAJO DE AUDIO Y VIDEO
CURSO DE I.O.T.
SBTE. SEBASTIAN BALLADARES