HIDRA ¿Qué es HIDRA? Se trata de una arquitectura diseñada para servir de soporte al desarrollo de sistemas y aplicaciones altamente disponibles. Está compuesta de un Gestor de Invocaciones a Objetos (ORB) altamente disponible con soporte a objetos replicados y diversos servicios relacionados con transacciones distribuidas, control de concurrencia y recolección de residuos. El diseño se ha realizado para permitir la inclusión de Hidra como parte del núcleo de un sistema operativo, permitiendo construir, no sólo aplicaciones altamente disponibles, sino también componentes del sistema operativo que permitan el desarrollo futuro de un sistema operativo distribuido que ofrezca la imagen de sistema único. Hidra proporciona el concepto de objeto como la pieza básica con la que se construirán las aplicaciones. Los objetos podrán estar replicados o ser objetos normales de implementación única. La ubicación de los objetos y su condición de replicados es transparente a los usuarios de dichos objetos, garantizando en el caso de los objetos replicados una mayor disponibilidad. El sistema incluye recolección de residuos para todos los objetos, permitiendo el desarrollo de sistemas que no consuman más recursos que los estrictamente necesarios, sin la sobrecarga que le supondría al programador realizar tal tarea sin soporte. Hidra está compuesta por dos partes fundamentales: el soporte a objetos y el soporte a un modelo específico de replicación, el modelo coordinadorcohorte. Sistemas distribuidos Un sistema distribuido es aquel que ofrece a los usuarios la imagen de un único
sistema
centralizado,
pero
que
se
ejecuta
en
múltiples
e
independientes CPUs. La clave principal es la transparencia. En otras palabras, el uso de múltiples ordenadores debe ser invisible al usuario, el usuario ve al sistema como un “uniprocesador virtual”.
La arquitectura Hidra Hidra es una arquitectura diseñada para servir de soporte al desarrollo de servicios altamente disponibles en un cluster. Un cluster Hidra estará formado por un conjunto de nodos interconectados con una red. Cada nodo ejecutará su propio núcleo de sistema operativo que ofrecerá unos servicios básicos a Hidra, e Hidra proporcionará a su vez servicios de alta disponibilidad a las aplicaciones que se construyan sobre ella. Las aplicaciones podrán residir en procesos de usuario o en el propio sistema operativo. Esta última posibilidad es la que permitirá construir servicios propios del sistema operativo de forma altamente disponible, con el objetivo final de construir un sistema operativo distribuido con imagen de sistema único. Los servicios que necesita Hidra del núcleo del sistema operativo son los típicos ofrecidos por la mayoría de núcleos actuales. NanOS es un ejemplo válido de núcleo sobre el que implantar Hidra y sobre el que ya se han realizado algunos trabajos de integración con Hidra. También se podrían utilizar sistemas operativos convencionales como Linux, Solaris, etc. En cualquier caso, los servicios mínimos que debe ofrecer el núcleo a Hidra son: el concepto de tarea, dominio de protección (o proceso), mecanismos de llamada al sistema (downcall) y de invocación desde el sistema
operativo
hacia
los
procesos
(upcall),
mecanismo
de
sincronización entre tareas, gestión de memoria, y primitivas de envío y recepción de mensajes por la red (transporte no fiable). Además es conveniente que se disponga de un mecanismo para incluir módulos en el propio núcleo, ya que Hidra en sí misma formará parte del núcleo para mejorar en eficiencia y aumentar la seguridad y estabilidad del sistema.
Niveles y componentes de la arquitectura Tal y como puede observarse en la figura, la arquitectura Hidra está formada por varios niveles y componentes. Cada nivel utiliza los servicios de los niveles inferiores y ofrece servicios a los niveles superiores, enmascarando en varios de ellos la aparición de determinados tipos de fallos. 1 Transporte no fiable El nivel de transporte no fiable, permite enviar mensajes a cualquier nodo del clúster Hidra, utilizando para ello su identificador de nodo.
La arquitectura Hidra 2 Monitor de pertenencia a Hidra Sobre el nivel de transporte no fiable se apoya un protocolo de pertenencia a grupos ampliado con servicios adicionales. Esta componente constituye el monitor de pertenencia a Hidra (HMM). Este monitor mantiene qué nodos forman parte del clúster Hidra, permitiendo que simultáneamente se produzcan nuevas incorporaciones al clúster y detectando qué nodos han caído. 3 Transporte fiable Este nivel, que se construye sobre el nivel de transporte no fiable y sobre el monitor de pertenencia a Hidra, elimina duplicidades en los mensajes y evita las pérdidas de mensajes de forma similar a como lo haría cualquier protocolo de transporte orientado a conexión (TCP). Con ello, los errores transitorios
más
frecuentes
de
los
canales
eliminados. 4 Gestor de invocaciones a nodo remoto
de
comunicación
son
Por encima del nivel de transporte fiable, una fina capa implementa un nivel de llamada a nodo remoto sencillo. No llega a ser llamada a procedimiento remoto pues este nivel no se encarga de empaquetar ni de desempaquetar argumentos. Tan sólo se encarga de enviar un mensaje a un destino, bloqueando a la tarea invocadora hasta que llegue la respuesta. 5 Transporte de lotes de mensajes Hidra dispone de un protocolo distribuido de cuenta de referencias que permite detectar residuos. Este protocolo es totalmente asíncrono y de prioridad baja. Que sea totalmente asíncrono significa que funciona correctamente sea cual sea el retardo que sufran sus mensajes y sea cual sea el orden en el que se entreguen éstos en su destino. 6 Gestor de invocaciones a objeto El nivel más elevado de la arquitectura Hidra lo constituye un gestor de invocaciones a objeto (ORB) con soporte para objetos replicados y recolección de residuos. El ORB es multitarea y multidominio, no utiliza protocolos de comunicación a grupos con orden causal ni total, ni tan siquiera multienvíos atómicos. Tan sólo utiliza mensajes punto a punto fiables y multienvíos no atómicos con orden FIFO. Middleware Middleware es un software de computadora que conecta componentes de software o aplicaciones para que puedan intercambiar datos entre éstas. Es utilizado a menudo para soportar aplicaciones distribuidas. Esto incluye servidores web, servidores de aplicaciones, sistemas de gestión de contenido y herramientas similares. Middleware es especialmente esencial para tecnologías como XML, SOAP, servicios web y arquitecturas orientada a servicios. La funcionalidad de middleware es la siguiente 1. Ocultar la distribución de los componentes individuales de un sistema 2. Ocultar la heterogeneidad (de software, hardware, protocolos) 3.
Proporcionar
alto
nivel
para
interfaces
desarrolladores 4. Suministro de un conjunto de servicios comunes
de
programación
de
CORBA Es una arquitectura para la construcción de gestores de invocaciones a objeto. Se trata de un estándar promovido por la OMG (Object Management Group) para facilitar el desarrollo de ORBs que sean interoperables entre ellos, de forma que se puedan construir aplicaciones distribuidas orientadas a objeto sin necesidad de que la implementación sea dependiente de la empresa que comercialice el ORB, ni del ORB en sí mismo. La especificación CORBA no da detalles de cómo deben construirse los ORBs, limitándose a especificar la funcionalidad que deben ofrecer en base al cumplimiento de interfaces especificadas en IDL.
ORDENADORES CUANTICOS
INTRODUCCIÓN La humanidad ha progresado a medida que los científicos descubrían nuevos métodos de explorar los recursos físicos que nos rodean. Si preguntásemos cuáles son estos recursos a un científico anterior al sigo XX, lo más probable es que obtuviésemos una respuesta triple: materiales, fuerzas y energías. Ahora bien, resulta que en el siglo XX hemos añadido un nuevo recurso que podemos manipular, y por el cual tenemos unas leyes físicas probadas: la información. A demás, la invención del ordenador ha permitido, por vez primera, llevar a cabo un tratamiento de información compleja de manera rápida fuera del cerebro humano. El tema de la computación cuántica es un tema basto y emergente, que abarca desde la teoría de la información clásica hasta la física de partículas, pasando por la informática y la teoría matemática del tratamiento de la información. Quizá se puede englobar todo en un súper conjunto que incluya la computación cuántica junto con otras disciplinas de una importancia cada vez mayor para conseguir llegar a comprender los fundamentos de la mecánica cuántica y el mundo natural. Este súper conjunto es a lo que se llama teoría de la información cuántica. INFORMACIÓN CUÁNTICA Como ya se ha dicho antes, la información cuántica es una rama de la ciencia bastante nueva, pero eso no quiere decir que nos podamos escapar de unas cuantas definiciones. Antes de entrar en las definiciones, hace falta aclarar que en algunas aparecen dos personajes ficticios: Alice y Bob. Estos dos personajes ya son famosos entre los investigadores, ya que se usan en multitud de ejemplos para facilitar nuestra concepción del tema, por lo que nosotros haremos lo mismo. Qubit Del Ingles quantum bit, es la unidad mínima de información cuántica. Puede verse como un sistema de dos estados (1 y 0 por ejemplo), pero a diferencia del bit clásico, puede estar en ambos estados al mismo tiempo o incluso en más. Puertas cuánticas Las operaciones unitarias simples sobre qubits se llaman puertas cuánticas, de manera análoga a las puertas lógicas de un sistema clásico. Toda puerta cuántica ha de ser reversible, lo que implica que toda operación que queramos llevar a cabo sobre un ordenador cuántico ha de ser reversible. Esto puede parecer, en un primer momento, un problema grave, porque la mayoría de puertas lógicas clásicas no son reversibles: si hacemos la operación AND sobre dos bits, obtenemos un bit del que no podemos volver a los dos bits originales sin alguna información extra. La solución pasa por usar unas puertas modificadas, que trabajen con más bits, de forma que vayamos guardando siempre información suficiente para volver atrás. No duplicación Teorema de la no duplicación: Un estado cuántico desconocido no puede ser duplicado. Este teorema impide generar copias de un estado cuántico dado, a no ser que el estado ya sea conocido (que exista información clásica que lo describa). El hecho de duplicarlo
permitiría hacer diversas copias y posteriormente, medir en cada copia una propiedad diferente Codificación densa El embrollamiento cuántico es un recurso informativo. Los qubits se pueden usar para almacenar y transmitir información clásica. Alice puede transmitir, por ejemplo, una secuencia con 5 qubits con los estados correspondientes a cada uno. Bob, posteriormente, puede medir cada qubit y extraer la secuencia sin ningún tipo de ambigüedad. Se puede demostrar que si Alice y Bob disponen de un par de qubits embrollados, Alice puede transmitir a Bob dos bits clásicos por cada qubit transmitidos. La codificación densa permite una transmisión totalmente segura: el qubit enviado por Alice sólo podrá dar los dos bits clásicos que le corresponden al poseedor del otro qubit embrollado (la pareja del de Alice). Teletransportación cuántica ¡Es posible transmitir qubits sin enviar qubits! Supongamos que Alice quiere comunicar a Bob un solo qubit. Si Alice ya conoce cuál es el estado, se lo puede comunicar mediante algún sistema convencional. Sin embargo, el problema es si Alice no conoce el estado. No puede medirlo sin modificarlo (y sólo podría enviar a Bob el estado resultante, que no es toda la información que hay dentro de un qubit), y tampoco puede hacer una copia para modificarla (recordemos el teorema de la no duplicación). Así, parece que la única manera es enviar físicamente el qubit: enviar el átomo o electrón (o lo que sea) que contiene el estado cuántico. Pero enviar un estado cuántico no es fácil; no podemos ponerlo en un sobre y enviarlo por correo. ¿Hay alguna forma de enviar el estado cuántico (desconocido) sin modificarlo mediante información clásica? La teletransportación cuántica permite resolver esta situación, o por lo menos, hallar un camino alternativo. Como en la codificación densa, se usa el embrollamiento cuántico como un recurso informativo. La idea es que Alice y Bob dispongan de un par de qubits embrollados, mediante los cuales se puede demostrar que Alice puede obtener dos bits clásicos a través de unas operaciones sobre el qubit que quiere transmitir (que queda destruido -modificado-) y el qubit pareja de los dos embrollados que tienen en común. Bob, posteriormente, puede reproducir el qubit original mediante operaciones análogas con su pareja embrollada y los dos bits clásicos. EL ORDENADOR CUÁNTICO UNIVERSAL La teoría de la información cuántica necesita una herramienta equivalente a la Máquina de Turing de la teoría clásica de la información. Esta máquina universal es lo que llamaríamos el computador cuántico universal. Un computador cuántico es un conjunto de n qubits sobre los que las siguientes operaciones son experimentalmente factibles: 1. Cada qubit puede ser preparado en un estado inicial conocido. 2. Cada qubit puede medirse en la forma de tener varios estados al mismo tiempo. 3. Una puerta cuántica universal (o conjunto de puertas) pueden ser aplicadas a voluntad sobre cualquier subconjunto de medida fija de sus qubits. 4. Los qubits no evolucionan de ninguna otra manera que no sea mediante alguna de las transformaciones anteriores.
Esta definición no es totalmente completa en un sentido técnico estricto, pero comporta las principales ideas.
APLICACIONES (ALGORITMOS) Factorización de números enteros (Algoritmo de Shor) Los ordenadores cuánticos no sólo son máquinas raras, sino que también se programan de forma rara. Un ejemplo concreto a veces dice más que muchas abstraciones, así que describiremos muy vagamente, sin entrar en detalles matemáticos, el algoritmo de Shor para factorizar números enteros. Recordemos que el problema de factorizar un número consiste en escribirlo como producto de números primos; por ejemplo, factorizar 35 consiste en "descubrir" que 35=5x7. Para factorizar un número en un ordenador cuántico necesitaremos dos registros (dos números, para entendernos) con un número suficientemente grande de qubits. Cuantos más qubits tenga un registro, más grandes los números que se pueden guardar en él, y nosotros queremos factorizar números grandes, así que nuestros registros necesitan muchos qubits, digamos 1.000. En realidad ya la hemos fastidiado, porque hoy en día no existe ningún ordenador cuántico que tenga ni siquiera diez qubits, pero sigamos. Empezamos situando el primer registro en un estado tal que si lo observásemos podríamos ver cualquier número que quepa en él. Esto es fácil; basta poner todos sus qubits a 1 con probabilidad 50% y a 0 con probabilidad 50%. En estos momentos el primer registro podría valer si lo observásemos 0, 1, 2, 3, 4,... hasta un número muy grande. En otras palabras, el estado del primer registro es la superposición de un número enorme de estados; uno de estos estados consiste en que el primer registro valga 1, otro consiste en que valga 2,… etc. Entonces hacemos cierta operación (no entramos a discutir cuál) con este primer registro y guardamos el resultado en el segundo registro. A cada valor del primer registro le va a corresponder un valor del segundo registro; como el primer registro puede tener un montón de valores, también el segundo tendrá montones de posibles valores. Aquí es donde radica la fuerza bruta del ordenador cuántico: si el primer registro tuviese mil qubits de longitud, entonces al hacer esta operación habríamos hecho el equivalente a 2 elevado a la potencia mil operaciones individuales simultáneamente, un número más grande que el de partículas en el universo. Imaginemos que tras hacer esto el segundo registro puede valer 2, 6, 7, 13, 17,... Ahora observamos el segundo registro; es decir, lo mandamos fuera para que interaccione con el mundo exterior. Por decir algo, mandamos este registro a una impresora y entonces tenemos un número escrito en un trozo de papel, digamos 7. De esta forma el segundo registro pasa a tener un valor concreto de entre todos sus posibles valores. El registro adopta uno y sólo uno de los posibles valores que podría adoptar. Bien, pues resulta que el primer registro también ha cambiado sin que nosotros hayamos hecho nada con él, simplemente porque hemos mandado fuera el segundo. Con el método de Shor estamos condicionando los posibles valores que puede tomar el registro 1; observamos el segundo registro (el efecto), pero no el primero (la causa), de
forma que restringimos de una forma muy peculiar los valores que podrá adoptar el primer registro cuando sea observado. El resto del método de Shor es demasiado matemático y no nos interesa; digamos simplemente que se resuelve el problema a partir de esos valores tan peculiares que son posibles para el primer registro. Todo esto suena muy raro, es cierto. Pero en 2001 ya se consiguió factorizar 15=3x5 usando una variación de este método en un ordenador cuántico de 5 qubits. Se estima que un ordenador actual tardaría varios miles de millones de años en factorizar un número de 1.000 cifras, mientras que un ordenador cuántico con 10.000 qubits lo haría en ¡20 minutos! ORDENADORES CUÁNTICOS EXPERIMENTALES Hasta ahora hemos hablado de puertas cuánticas y qubits de una forma ideal. En los inicios de ésta disciplina se pensaba que, o bien se tardaría mucho en encontrar un sistema para crear un computador cuántico, o incluso se pensaba que nunca podría construirse uno. Pero, como pasa a menudo en ciencia, los científicos experimentales sorprenden con su ingenio, y ahora existen diferentes ordenadores cuánticos experimentales funcionando, todavía de una manera muy rudimentaria y con muy pocos qubits. Pero se esta muy lejos de poder comprobar realmente la eficiencia de un ordenador cuántico universal. Actualmente existen tres tipos de mantener estable una red de qubits, estos son:
1. Trampa iónica 2. Resonancia magnética nuclear 3. Rydberg Sculpting
CORRECCIÓN DE ERRORES CUÁNTICOS Anteriormente hemos visto algunos ejemplos de algoritmos cuánticos, pero éstos solo nos dan una ventaja real sobre máquinas clásicas con problemas que necesitan un número de qubits del orden de miles. Ahora hemos visto que hay sistemas experimentales que sólo nos acercan a “ordenadores” cuánticos de unos cuantos qubits. Estos sistemas no se pueden llamar con propiedad ordenadores cuánticos dado que no son suficientemente versátiles. Son más bien, procesadores de información cuántica. ¿Llegaremos a disponer algún día de verdaderos ordenadores cuánticos de miles o millones de qubits? El problema radica en la descripción del computador cuántico universal que hemos dado anteriormente. El cuarto punto es físicamente imposible. No hay nada que sea una puerta cuántica perfecta, ni hay ninguna manera de disponer de un sistema totalmente aislado. El problema es que por lo mismo que una puerta cuántica aprovecha la correlación entre diferentes qubits para llevar a cabo el cálculo, estos qubits también estarán correlacionados con otros qubits del entorno que no pertenezcan al sistema, interfiriendo
así los cálculos. Esto se conoce como decoherencia. Es muy complicado encontrar un sistema con un factor de decoherencia menor que una parte por millón cada vez que actúa una puerta. Esto significa que la decoherencia al factorizar, por ejemplo, un número de 130 dígitos es 107 veces superior al máximo tolerable para llevar a cabo el cálculo. Los ordenadores clásicos son fiables no porque sean perfectos, sino porque son inmunes al ruido. La estabilidad de un dispositivo clásico se basa en una combinación de amplificación y disipación. Usan una amplificación para pasar de un estado a otro, y después, para estabilizarse en otra posición disipan la energía en forma, normalmente, de calor. Dos ejemplos: un interruptor mecánico y un biestable (circuito lógico básico que almacena un bit). En el interruptor la amplificación la da, normalmente, un muelle o similar, de tal forma que hasta que no le den una cierta energía, el interruptor no varía, pero si lo llega a hacer, dispone de más energía que la que le hace falta para cambiar de estado. Al biestable, los transistores hacen éste trabajo.
En cuanto a la disipación, en el caso del interruptor, una vez ha cambiado de estado hay un shock muy inelástico que disipa la energía en forma de calor y sonido. Si no, el interruptor iría saltando de un estado a otro. Para el biestable, hay unas resistencias que disipan la energía sobrante en forma de calor. Sin embargo, estos métodos no nos sirven para los computadores cuánticos. El teorema de no duplicación implica que la amplificación de estados cuánticos desconocidos es imposible, y la disipación es incompatible con la evolución unitaria. Estas consideraciones han llevado a la aceptación general de que las reglas de la mecánica cuántica juegan contra la estabilidad de un computador cuántico y que éste no podrá funciona nunca eficientemente. Sin embargo, podemos usar los mismos principios de corrección de errores que ya se usan en la teoría de la información clásica. Así nace la corrección de errores cuánticos (QEC). La QEC usa unos circuitos especiales, que durante los primeros estados de la investigación no se sabía si habían de ser necesariamente perfectos. Posteriormente, se encontraron redes correctoras de errores que eran tolerantes a los errores... o sea, circuitos que corregían más errores de los que introducían con su presencia. Estos circuitos tienen la ventaja de que permiten computadores cuánticos de tamaño arbitrariamente grande, siempre y cuando se esté dispuesto a perder una parte del espacio disponible para los circuitos correctores, evidentemente. Recientemente se han estimado los requerimientos para una computación cuántica fiable mediante QEC tolerantes a errores. Son muy altos, pero viables. Por ejemplo, un computador cuántico útil (que pueda efectuar cálculos por encima de cualquier ordenador clásico) requeriría de un orden de 1000 qubits y 1010 puertas. Sin QEC, esto requeriría un nivel de ruido de 10-13 para cada qubit y puerta, que es totalmente imposible. Aplicando QEC sólo necesitaríamos 10-5 para cada qubit y puerta, es difícil pero no imposible. El efecto lateral sería que necesitaríamos un computador de 10 a 100 veces más grande.
SEGURIDAD EN REDES CONVERGENTES ¿Qué es una red convergente? El concepto de convergencia de una red, una que tiene la capacidad para transmitir voz, datos, fax, video, o alguna combinación de estos tipos de señal (o los medios de comunicación), no es nueva. Migración de la red legado El interés en la migración de las redes actuales a la creación de redes convergentes de tecnología procedentes de muchas direcciones. Los primeros adoptantes de tecnologías de VoIP fueron considerados por muchos aficionados que se busca experimentar con la transmisión de voz y vídeo a través de Internet. Sin embargo, el éxito de sus logros ha demostrado la viabilidad de estas tecnologías y rápidamente agarró a la atención tanto de la voz y los fabricantes de redes de datos. Por ejemplo, los desarrolladores de hardware de red, tales como enrutadores y conmutadores, se dieron cuenta de que era necesario para obtener conocimientos sobre la lado la voz de la empresa, y rápidamente se trasladó a adquirir talento en la WAN de señalización, la línea, y de largo recorrido del circuito operación. En contraste, los desarrolladores de sistemas de conmutación locales, a veces llamado privada de la Subdivisión de Intercambio, o PBX, o la menor clave Telephone Systems, o KTSs, cuenta la necesidad de una mayor experiencia en conmutación de paquetes de tecnologías y se trasladó a adquirir talento en Internet y relacionados con la propiedad intelectual de funcionamiento de la red. Los retos de la convergencia de redes El Protocolo de Internet (IP), que prevé la entrega de paquetes fundamental mecanismo para la Internet, es un protocolo sin conexión. Fue diseñado originalmente para el transporte de datos, no de voz, y, por tanto, dependía de otros protocolos de la capa superior, tales como el Protocolo de control de transmisión (TCP) a fin de mejorar su fiabilidad. Aquí está el reto fundamental para redes convergentes: ¿Cómo tener una relación orientada a la aplicación (por ejemplo, voz o video) y que remita,
a través de una conexión de red (como una red IP o Internet), y hacerlo fiable? Este desafío debe considerarse desde tres perspectivas: La infraestructura de la red, la continuación de la gestión de la red, y los usuarios finales la calidad del servicio.
La infraestructura de la red probablemente ha sido diseñada en apoyo de las comunicaciones de voz o comunicaciones de datos, pero no ambos. En otras palabras, vamos a suponer que usted está considerando la adición de servicios de voz IP o la videoconferencia a su actual Intercambio. ¿La red tiene la capacidad de estos adicionales, el ancho de banda intensivo, las aplicaciones? Para el gestor de la red, uno de los principales retos es la educación. La mayoría de voz y redes de datos también ha separado la gestión de personal y sistemas. Por lo tanto, si usted tenía la responsabilidad de la voz de red de área amplia, que sólo se periférica que participan en cuestiones relativas a la redes de datos locales. Como resultado de ello, que no era probable para desarrollar los conocimientos en tecnologías de LAN. Si usted es ahora responsable de voz y datos, usted debe desarrollar la gestión de la red y el análisis de la experiencia en estos dos ámbitos. Pero quizás el mayor desafío es mantener a los usuarios finales satisfechos con el servicio proporcionado por el Intercambio. Aunque los usuarios finales no pueden ser técnicos que entienden la Comisión Interamericana para el funcionamiento de los sistemas de comunicación, saben cómo operar el teléfono, y saben de su experiencia fiable de cómo el sistema telefónico es. Han sido condicionados a esperar un servicio de alta calidad. Nada menos que el cumplimiento de sus expectativas existentes es probable que sea inaceptable. Principios esenciales de la seguridad de la red La seguridad informática no puede limitarse a un punto de entrada o a un único elemento de la red. La clave de una seguridad efectiva pasa por ofrecer una cobertura total sobre todos los puntos de la red, las aplicaciones y todo el tráfico que discurre por ella, ya se trate de datos, vídeo o voz. La integración de las diferentes comunicaciones de las empresas y de sus redes permite que se reduzcan los costos de mantenimiento, y la integración de la seguridad de todas las comunicaciones es una prueba de ello. La solución más adecuada pasa por una seguridad integrada que cubra todos los extremos de la comunicación, lo que tradicionalmente se conoce como una solución end to end, que capacite a las organizaciones, además, para seguir incrementando las posibilidades de seguridad a medida que vayan apareciendo en el mercado. No se trata de instalar elementos de seguridad y olvidarse, sino
de mantener una política de mantenimiento y actualización que nos permite trabajar sobre un entorno seguro. La integración de las comunicaciones bajo una red IP, permite elevar los niveles de seguridad al mismo punto en que se encuentran las tradicionales soluciones de seguridad en el entrono de los datos. Además, curiosamente, la estandarización de las comunicaciones IP, que proveen mayor flexibilidad y mayores capacidades a los usuarios, también les permite incrementar sus niveles de seguridad. Por ejemplo, un ataque de denegación de servicio es difícil de controlar para los responsables de seguridad de una red de voz tradicional, mientras que en el caso de los responsables de una red IP, más acostumbrados a los intentos de los hackers de echar abajo sus servidores y tráfico de datos, se disponen de las armas y las estrategias para hacer más controlables y menos efectivos este tipo de ataques. Por tanto, uno de los elementos que parecía frenar la adopción de estas redes convergentes es en realidad uno de los puntos fuertes para su adopción, dado que las redes integradas de voz, vídeo y datos sobre IP son más sencillas de defender con una solución global, como se demuestra en las redes tradicionales de datos constantemente. Recientemente, Cisco Systems anunció su iniciativa Self-Defending Network, es decir, la creación de redes que se autodefiendan de posibles ataques. Esta iniciativa incluye una serie de pasos para asegurar la capacidad de la red para identificar, prevenir y adaptar la seguridad a los ataques exteriores. La idea es ofrecer una solución de red extremo a extremo que impida a las comunicaciones, del tipo que sean, ser atacadas, tanto desde dentro como desde fuera. En el caso de las comunicaciones IP, los elementos críticos a proteger son: 1) Infraestructura de red, incluyendo todos los elementos que la forman, ya sean a nivel de grupo de trabajo como en la propia red central. 2) Sistemas de procesamiento de llamada, gestionando las llamadas y controlando y autentificando a los propios usuarios. 3)
Puntos de acceso, ya sean teléfonos IP, terminales de vídeo o cualquier otro dispositivo que pueda ser conectado a una comunicación IP, como un PC, por ejemplo.
4)
Aplicaciones, dado que son la clave de este tipo de comunicaciones. Las aplicaciones que emplean los usuarios, ya sean de videoconferencia, mensajería unificada, gestión de contactos de proveedores y clientes, o cualquier otra aplicación, deben ser protegidas de posibles ataques.
Beneficios •
Movilidad que aporta la posibilidad de acceder a las aplicaciones y a la información corporativa desde cualquier
punto de la red, independientemente del tipo de terminal que se utilice para ello. •
Mejora de la eficiencia de los procesos productivos de la empresa.
•
La instalación de una red convergente proporciona la aparición de nuevos servicios que antes no eran posibles y permite compartir de forma mucho más adecuada el conocimiento existente en la empresa.
•
Dota de movilidad a los empleados, facilita la integración con las aplicaciones existentes y por tanto, se reducen sus costes asociados.
•
Ayudan a las empresas a optimizar sus costes e inversiones y a generar mayores posibilidades de negocio que con los sistemas tradicionales.
•
ETC.
Empresas dedicadas a la seguridad
Barracuda Networks, Inc. es el proveedor líder de soluciones empresariales de firewall contra el correo no deseado para la seguridad integral del correo electrónico. Su producto estrella, Barracuda Spam Firewall, ganador de numerosos premios empresariales, incluidos Network Computing's Editor's Choice Award y Well-Connected Awards 2004 y 2005, ofrece protección a más de 20.000 clientes de todo el mundo, como Adaptec, Knight Ridder, Caltrans, CBS, Instituto de Tecnología de Georgia, IBM, Pizza Hut, Union Pacific Railroad y el Ministerio de Hacienda de los Estados Unidos.
TippingPoint es el proveedor líder de la red basada en sistemas de prevención de intrusiones para las empresas, organismos gubernamentales, proveedores de servicios e instituciones académicas. TippingPoint ha sido el pionero IPS mercado, ya que puso en marcha la primera red basada en el sistema de prevención de intrusos en 2002, y continua lleva a la industria por ser el primero en el mercado de IPS con innovadoras características, tales como programas espía y protección multi-gigabit rendimiento.
TippingPoint es el único sistema de prevención de intrusiones para ofrecer VoIP de seguridad, gestión de ancho de banda, Peer-to-Peer protección, y por defecto "Configuración recomendada" para bloquear con precisión el tráfico malicioso automáticamente a la instalación sin afinación.
TippingPoint System (IPS) de 3Com El IPS TippingPoint es el primer producto específicamente desarrollado nunca en favor de la empresa sobre la seguridad y el rendimiento de la red de control. TippingPoint ofrece una amplia gama de dispositivos de IPS que se puede colocar en el perímetro, en segmentos de red internos, en el centro, y en lugares remotos. Algunas características: • • • • •
En toda la empresa la presentación de informes y análisis de tendencias En un vistazo salpicadero Dispositivo de configuración y supervisión creación automática de informes Automatizado de los mecanismos de respuesta de seguridad
Los sistemas de prevención de intrusos de TippingPoint proveen protección para: • • •
Desempeño de red a velocidad de Gigabit Ethernet con inspección total de paquetes. Protección de capacidad de las aplicaciones en forma rápida, precisa y confiable contra ciber-ataques tanto internos como externos. Protección de capacidades de infraestructura protegiendo infraestructura de VoIP, ruteadores, switches, Servidores de DNS y otros equipos críticos de ataques y anomalías de tráfico.
NetBotz Surveillance de APC NetBotz Surveillance es una familia de dispositivos con acceso a través de la red que detectan y notifican sobre cualquier actividad humana que pudiera amenazar la disponibilidad de su infraestructura física para redes críticas, así como detectar y notificar de factores ambientales peligrosos. Beneficios de NetBotz Surveillance son:
• Captura y registros de eventos para la futura recuperación sin el envío de una alerta que se ha producido movimiento ideal para la alta o baja de tráfico que necesitan un registro de eventos como parte de su amplio físico y la protección de la vigilancia del medio ambiente
PONE PROJECTORS La palabra proyector parece venir acompañada del calor de esa enorme lámpara incandescente y del ruido del ventilador necesario para refrigerarlos. Ya no más, si los avances siguen como hasta ahora. Utilizando la tecnología DLP y lámparas LED de alta eficacia, los proyectores se pueden incluso embutir en un teléfono móvil. Unos pocos años a partir de ahora, usted podría ser capaz de llevar un sistema de home cinema en tu bolsillo. ¿Que
es Mobile_Phone Projectors?
El Mobile_Phone Projectors no es más que un Teléfono móvil con un micro proyector incorporado que permite al usuario proyectar vídeo o fotografías de un teléfono móvil en la pared, en una mesa, etc.
Miniproyector: es un dispositivo del tamaño de una caja de cerillas capaz proyectar vídeo o fotografías de un teléfono móvil. Son los proyectores de bolsillo, una alternativa a las pantallas de los móviles. Véase la siguiente figura.
•
Proyección Holográfica Láser
LBO la novela de enfoque en miniatura de proyección tiene un rango de diferenciar características y beneficios. El término "holográfica" no se
refiere a la imagen proyectada, pero para el método de proyección. Un patrón de difracción de la deseada imagen 2D, de acuerdo con LBO's holográfica de algoritmos patentados, es mostrada en un diseñado fase de la modulación de cristal líquido en silicio (LCOS) microdisplay. Cuando se ilumina de luz coherente láser, la deseada imagen 2D se proyecta. Como se muestra en la siguiente figura.
Empresas que lo están implementando. Se abordaran las empresas que están desarrollando los teléfonos e implementando esta tecnología.
Entre
las
cuales
podemos
mencionar
a:
Texas
Instruments,
Motorola,Samsung, 3M, Microvisión, etc.
Samsung Desventajas Mobile Projectors : 1. La batería es uno de los principales problemas de este tipo de móvil. 2. Publicado 3 de Octubre de 2008. 3. La cámara fotografica sólo ha pensado en integrar 3 megapíxeles de resolución. Ventajas Mobile Projectors:
1. La terminal estaría fabricado con policarbonato y un recubrimiento de aluminio, que promete una mayor resistencia, a la vez que aisla del sobrecalentamiento que normalmente sufren los proyector. SP-A800B : es proyector de alta definición que Samsung presentó en el 2007.
Texas Instruments DLP Pico. Del cual se hablan maravillas el cual tendrá iluminación LED (emisores de luz-diodo). Proporciona más brillo y colores mejor definidos. Proyectores de bolsillo de 3M En lugar de láser, usa iluminación LED. Proporciona más brillo y colores mejor definidos. Eso sí, salvando siempre las distancias respecto a los proyectores de sobremesa. Superan con creces las medidas de 4 x 3 x 1 centímetros de este prototipo de 3M. En distancias cortas, puede proyectar imágenes a 640 x 480 píxeles de resolución, creando una pantalla virtual de 40 pulgadas de tamaño sobre la pared. •
En lugar de láser, usa iluminación LED.
•
Proporciona más brillo y colores mejor definidos. Eso sí, salvando siempre las distancias respecto a los proyectores de sobremesa.
•
Superan con creces las medidas de 4 x 3 x 1 centímetros de este prototipo de 3M.
•
En distancias cortas, puede proyectar imágenes a 640 x 480 píxeles de resolución, creando una pantalla virtual de 40 pulgadas de tamaño sobre la pared
A este respecto 3M. 3M afirma que el miniproyector también podría montarse en una agenda electrónica o incluso una cámara digital, por lo que la idea podría transportarse a aparatos con distintos públicos y necesidades. Alternativa a las pantallas de los móviles.
Microvisión. También apuesta por estos sistemas de proyección. "Los dispositivos portátiles como los teléfonos móviles, ordenadores portátiles, o visores de foto y vídeos portátiles pueden estar equipados con el sistema PicoP"
Modelos y características SP-A800B (ese proyector de alta definición que Samsung presentó en el 2007).
Worlds First Video Projector Mobile Phone Epoq EGPPP01. Epoq EGP PP01: es el primer proyector de teléfono móvil. Este asombroso salto en la tecnología puede funcionar no sólo como un dispositivo de comunicación, sino también como un proyector portátil imagen. Ver figura de 4.0
Características (Projector Mobile Phone Epoq EGP-PP01):
• Teléfono celular móvil, proyector, texto y mensajes multimedia, MP3 y MP4 Player. • Robusta mensaje gerente, cámara digital, vídeo digital, e-book reader, herramientas de productividad. • Compatibilidad de frecuencia GSM: Tri-Band 900MHz, 1800MHz, 1900MHz (o
850/1800/1900Mhz Opcional)
• Pantalla: TFT de 2,4 pulgadas LCD de pantalla táctil con resolución de pantalla: 240x320 píxeles. • Tipo de Pantalla: táctil sensible al tacto. • Resolución de proyector: 640x480 píxeles nativos. • Perfiles Bluetooth: manos libres, auricular, A2DP. • Dimensiones: 122 mm x 50 mm x 27 mm (L x W x H).
Ademas tiene otras caracteristicas como
Video Cámara: - Captura Formato: 3GP. - Resolución: 320x240. Proyector: - Máxima distancia de la pared: Hasta 5 pies (150cm). Imagen proyectada enfoque se Puede ajustar. - Máximo tamaño de la imagen: Aproximadamente 32 x 40 pulgadas (80cm x
100cm), dependiendo de la fuente de imagen de ca
Opciones de comunicación: - SMS (mensajes de texto) con teclado en la pantalla de entrada la opción. Precio de Venta: El precio inicial cuando salio al mercado fue de $539.95; pero después se le redujo hasta llegar a $399.95
REALIDAD AUMENTADA INTRODUCCION La línea entre el mundo real y el mundo virtual es cada vez más delgada. La información de los sistemas digitales se filtra cada vez más en las actividades diarias de las personas. La Realidad Aumentada (RA) se encuentra en la línea entre el mundo real y la información del mundo digital. La RA toma el papel de una interfaz de usuario al poder presentar información digital en el mundo por medio de dispositivos de representación especiales. Un sistema de software de Realidad Aumentada se separa de los sistemas tradicionales pues interactúan en gran medida con el usuario y su entorno.
DEFINICION La Realidad Aumentada es un entorno que incluye elementos de Realidad Virtual y elementos del mundo real. El objetivo final es crear un sistema tal que el usuario no pueda encontrar la diferencia entre el mundo real y la parte virtual, que parezca que el usuario esta observando una sola escena verdadera.
DIFERENCIA ENTRE REALIDAD VIRTUAL Y REALIDAD AUMENTADA Cuando se explora un entorno de realidad virtual inmersiva, el usuario pierde de vista el mundo físico y en su lugar explora un espacio recreado con imágenes por ordenador. Para ello, debe llevar puestos gafas, cascos, guantes u otros dispositivos especiales que capturan tanto su posición como la rotación de diferentes partes de su cuerpo. La persona tiene la experiencia de recorrer el espacio digital representado mientras está en realidad en una sala vacía, la Realidad Aumentada que surgió en base a las criticas de la realidad aumentada en cuanto a divorciar al usuario del mundo real, toma los datos del mundo real y los mejora... los 'aumenta', gracias al computador, es decir que agrega objetos virtuales a la parte real.
CARACTERÍSTICAS DE UN SISTEMA DE REALIDAD AUMENTADA
Combina lo real y lo virtual. La información digital es combinada con la realidad.
Funciona en tiempo real. La combinación de lo real y lo virtual se hace en tiempo real. Registra en tres dimensiones. En general la información aumentada se localiza “registra” en el espacio. Para conservar ilusión de ubicación real y virtual esta tiende a conservar su ubicación o moverse respecto a un punto de referencia en el mundo real.
La información de la que se habla aquí puede referirse, a parte de información visual, auditiva, olfativa o táctil. En cuanto al funcionamiento de las aplicaciones de RA, tres componentes fundamentales deben presentarse. Estos tres componentes son visualización (salida), ubicación de objetos virtuales en el mundo real (registro) y métodos de interacción (entrada). COMPONENTES DE UN SISTEMA DE REALIDAD AUMENTADA Visualización Actualmente la Realidad Aumentada visual se logra con el uso de dispositivos de visualización similares a los de Realidad Virtual. Algunos de estos dispositivos son los cascos y gafas, éstos se componen por pantallas de cristal líquido que se ubican al frente de los ojos para presentar con ellas las gráficas generadas por el computador, conocidos como HMD por sus siglas en inglés (headed-mounted display), va fijo sobre la cabeza del usuario para presentarle información actualizada respecto a sus movimientos. Para lograr esto existen dos métodos visión directa e indirecta, conocidos también como sistemas Display. En el método directo (Optical See-through Display) se utiliza un espejo semireflectante para ver el mundo real a través de éste y a la vez reflejar las imágenes del computador, es decir una pantalla óptica transparente. En el método indirecto (Video-mixed Display) se cubre totalmente la visión de la persona y se remplaza por imágenes obtenidas por una cámara ubicada a la altura de los ojos. Tanto uno como el otro usan imágenes virtuales que se muestran a los usuarios mezclados con la realidad o bien proyectados directamente en la pantalla. Registro de objetos Por objeto virtual no referimos a cualquier imagen generada por computador que se genere en el dispositivo de visualización y se presente como parte de la realidad aumentada, esto incluye texto, figuras, imágenes bidimensionales o modelos tridimensionales. Uno de los problemas de la RA es lograr que tales objetos puedan “registrarse” con el mundo real de tal forma que cuando el usuario se mueva los objetos parezcan conservar su posición al igual que los objetos reales se quedan en su lugar cuando el observador cambia de posición
Los dispositivos empleados para enfrentar este problema son: Sensores: Se hace uso de dispositivos de hardware de corto alcance que permiten determinar una ubicación en el espacio. Existen sensores ópticos (infrarojos), magnéticos y de movimiento. Un computador central: una máquina capaz de crear imágenes sintéticas, y de procesar la imagen real añadiéndole información virtual, es decir que incluya un procesador (hardware) y software específico para esta labor, los investigadores han debido utilizar máquinas cuyo poder les permita procesar la gran cantidad de datos que se reciben desde el usuario, así como los que se generan hacia él; dotándolas de procesadores gráficos de ultima generación. Un sistema de reconocimiento de patrones de alta difusión es ARToolkit (Kato y Billinghurst, 1999), como también El D.A.R.T. (Designer’s Augmented Reality Toolkit) por el Augmented Environments Lab Sistemas a campo abierto: Para aplicaciones de realidad aumentada en campo abierto se ha usado el Sistema de Posicionamiento Global para determinar la posición del usuario. Interacción Una vez que se logra presentar objetos y se pueden ubicar en el mundo real, pueden requerirse métodos para manipular o modificar tales objetos. Muchos métodos de manipulación actual en analogía a los sistemas de escritorio utilizan apuntadores o cursores para representar la posición de la mano del usuario. También se hace uso de objetos reales como una tabla o panel de interacción (Ej. El Personal Interaction Panel (Szalavari y Gervautz, 1997) o paletas con marcadores para rastreo visual (Kato y Billinghurst, 1999)). ARQUITECTURAS DE UN SISTEMA DE REALIDAD AUMENTADA Realidad aumentada basada en el monitor Video See-through Display Optical See-through Display (Pantalla Óptica Transparente)
APLICACIONES DE LOS SISTEMAS DE REALIDAD AUMENTADA
Juegos de azar y entretenimiento Educación Seguridad y defensa Medicina Negocio Hospitalidad Fabricación, mantenimiento y reparación REALIDAD AUMENTADA EN DISPOSITIVOS MOVILES
La RA se lleva implementando en sistemas experimentales desde hace tiempo, pero debido a lo extendido que está el uso de los dispositivos móviles y a las crecientes capacidades que estos presentan, la investigación y desarrollo en áreas comprendidas dentro de la RA se han visto impulsadas enormemente. Hasta el momento parece ser que la Realidad Aumentada se hace realiza exclusivamente con la tradicional "mochila"-sistemas que consisten en un ordenador portátil, un HMD, cámaras fotográficas y de apoyo hardware adicional. A pesar de que estos sistemas funcionan bien dentro de un limitado entorno de laboratorio, no para cumplir con varios criterios de uso que se desplegarán rápidamente para usuarios inexpertos, ya que son caros, engorrosos y requieren alto nivel de especialización. Desde los primeros experimentos en el móvil de Realidad Aumentada, una gran variedad de dispositivos portátiles de consumo con la capacidad versátil ha surgido. Se cree que los ordenadores de mano, teléfonos móviles y asistentes digitales personales tienen el potencial de introducir de Realidad Aumentada para grandes audiencias. ALGUNOS PROYECTOS DE REALIDAD AUMENTADA MARISIL Este proyecto presenta lo que podrá ser la próxima generación de interfaces de dispositivos móviles (tanto teléfonos como computadoras). El sistema (todavía en proceso de desarrollo) basa su existencia en la desaparición de los dispositivos de entrada tradicionales, a los que sustituye por una interfaz virtualizada que la personavisualiza en su mano, o en otro sitio, y con la que interactúa tocando la superficie realsobre la que se proyecta esta interfaz virtual para, posteriormente, aplicar técnicas de reconocimiento de imágenes para analizar la selección del usuario. Life Clipper Life Clipper es un proyecto de arte en exteriores, que ofrece una experiencia basada enun paseo al aire libre donde se experimenta una experiencia audiovisual basada en realidad Aumentada con componentes virtuales. Para esta experiencia, hace falta equiparse con una computadora portátil y unas gafas especiales conectadas a la misma. Con este equipo, al ir andando por un área de interés cultural, o un paisaje impresionante, el sistema es capaz de detectar la posición y dirección del usuario mediante GPS y añade información visual y sonora relevante a la vista. Esta información incluye desde fotografías, documentales, etc. Realidad aumentada para reconstruir el pasado con un PDA Futrelab de la universidad Politécnica de Valencia desarrollo un prototipo de Realidad Aumentada basada en marcadores interactivos que permite reconstruir objetos tridimensionales en dispositivos móviles, PDAs. Visitar un museo ver un trozo de un vasija que h sido recuperada pero no se tiene la vasija completa y mediante el móvil que llevaríamos durante la visita la museo podríamos apuntar al marcador y reconstruir en tiempo real,
actualmente reconstruye monumentos como la puerta de Alcalá y el coliseo de Roma. Mantenimiento a una impresora láser Steve Feiner del grupo de Columbia construido un sistema de realidad aumentada para darle mantenimiento a una impresora láser cuando es generado por ordenador en donde le está diciendo al usuario como extraer la bandeja de papel. PAC-MAN AR Desarrollado por Adrian David Cheok y el equipo de desarrollo del departamento derealidad Aumentada de la Universidad Nacional de Singapur para presentar sus adelantos en RA. Mezclando diversos sistemas inalámbricos como el GPS, Wi-Fi,
Bluetooth e infrarrojos, los participantes pueden encarnar a los protagonistas de una partida de Pac-Man, teniendo como escenario los senderos de la Universidad. Un par de anteojos especialmente diseñados proyectan sobre el camino las píldoras que el jugador debe recolectar y los datos de la partida, mientras la computadora sigue su rastro y el de sus rivales – los fantasmas – a medida que se desplazan por un área del campus equivalente a 70 por 70 metro
REALIDAD COMBINADA Inicios: Algunos expertos consideran que la fecha en la que nació la denominada “realidad virtual” fue en el año de l952, ya que es la fecha en la que aparecieron las primeras manifestaciones de simulaciones con un simulador de vuelo mecánico. La idea generalizada de realidad virtual se comenzó a gestar en los estamentos militares (fuerza aérea, marina) en conjunto con la NASA, pero es de apuntar que los primeros conocimientos de esta tecnología se inicio en muchos frentes, siendo los laboratorios de las grandes universidades los lugares de trabajo mas activos. En 1966 Iván Sutherland construyó el primer dispositivo estereoscópico controlado por computadora y tres años más tarde, el Departamento de Defensa de los Estados Unidos financió el primer casco de visualización. A comienzos de los años setenta se empezaron a investigar nuevos métodos para mejorar la comunicación entre el hombre y la máquina, y de este modo, poder extraer el máximo rendimiento. A finales de ésta década comenzó una etapa de intenso trabajo en torno a la realidad virtual, cuando la Fuerza Aérea de los EE.UU. tuvo la idea de sumergir a los pilotos en simuladores de entrenamiento en la base Wright Patterson en Dayton Ohio. Los pilotos vivían la experiencia simulada de encontrarse dentro de una aeronave y eran capaces de probar situaciones de vuelo específicas en cualquier punto en el tiempo. Este tipo de proyecto demostró que la simulación por computadora y la visualización podían usarse para crear muchos escenarios útiles para el entrenamiento. Las primeras aplicaciones de realidad virtual sirvieron para desarrollar simuladores del flujo de combustible de los transbordadores espaciales, los cuales permitieron a los técnicos monitorear el empleo y almacenamiento del combustible. En 1979, se dio a conocer el primer simulador de vuelo totalmente basado en computadora; Ivan Sutherland, construyó el primer sistema de realidad virtual con gráficos vectoriales y rastreo mecánico de cabezas. Quince años más tarde, en le universidad de Carolina del Norte, Fred Srools y Henry Fuchs experimentaron con la visualización en implementaciones médicas y científicas, también en aplicaciones arquitectónicas en las cuales el usuario podía caminar a través de un modelo CAD. En 1985 la universidad de Carolina del Norte fue un paso más allá de todo lo conocido anteriormente logrando un modelado tridimensional por computadora totalmente distinto, permitiendo paseos más realistas. El 1989 las herramientas y los mundos de realidad virtual ya podían instalarse en computadoras personales, siendo la primer compañía en hacer una demostración de una solución en realidad virtual basada en una PC, Autodesk.
Tres años más tarde, se realiza la primera exposición de arte de realidad virtual en una galería de Nueva York. Ese mismo año el museo de computadoras de Boston demostró una aplicación de RV (realidad virtual) basada en tecnología de Intel, como parte de sus exhibiciones, dicha aplicación le permite a los usuarios entrar en un mundo virtual y construir una casa empleando objetos simples que se encuentran en un ambiente simulado. Poco a poco fueron apareciendo aplicaciones para esta nueva tecnología: simuladores de vuelo comerciales, manipulación de robots en el espacio controlados desde a tierra, entrenamiento de astronautas, recorridos virtuales por los planetas del sistema solar, etc. Que es la realidad virtual: "La realidad virtual es un medio compuesto por simulaciones de computadora interactivas que reaccionan a la posición y acciones del usuario y producen retroalimentación en uno o más sentidos, generando la sensación de estar inmerso o presente en una simulación". Un ambiente virtual es una simulación por computadora que proporciona información a uno o varios de nuestros sentidos: visión, sonido, tacto y gusto, con el propósito de que el usuario se sienta inmerso en un mundo que reacciona ante sus acciones. Así mismo podría decirse que un ambiente virtual es naturalmente tridimensional, dinámico y cambiante según los movimientos y peticiones de los usuarios. La realidad virtual puede ser de dos tipos: inmersiva y no inmersiva La realidad virtual no inmersiva: o también llamada realidad virtual de mesa es aquélla que se crea cuando el participante explora diversos ambientes haciendo uso de los dispositivos de hardware mas comunes como: Mouse, monitor, tarjetas de video y sonido, etc. Este tipo de aplicaciones son llamativas para los usuarios, pues no requieren de hardware especializado y, por lo tanto, son de fácil acceso; no obstante, tienen como inconveniente que los sentidos de los participantes se distraen por eventos ajenos a la simulación, como por ejemplo, salir del campo de visión de la simulación al mover la cabeza, o utilizar el mouse que no es un dispositivo de interacción natural, con lo que se percibe de manera inconsciente que el ambiente virtual no constituye una realidad. La realidad inmersiva: Estos métodos buscan crear la sensación de encontrarse dentro de un ambiente específico; para lograrlo se generan simulaciones con la mayor calidad posible de despliegue, junto con formas naturales de interacción donde se utilizan sistemas sofisticados de alta calidad de despliegue con efecto de profundidad como cascos o proyectores de alta resolución, equipo de cómputo capaz de controlar la simulación, el despliegue, los dispositivos y la interacción a una velocidad adecuada con objeto de que el usuario tenga una respuesta rápida. Los dispositivos de interacción regularmente se basan en sistemas de captura de los movimientos del usuario, de tal manera que se realizan de forma natural, sin tener que concentrarse en cambiar protocolos de interacción, como sucede al emplear el mouse o teclado. Por la potencialidad que estos sistemas ofrecen, el área donde se pueden utilizar es muy extensa.
REALIDAD COMBINADA: Los inicios de la realidad aumentada se remontan a 1960, cuando Sutherland usó un dispositivo de despliegue de imágenes tridimensionales de tipo casco, para visualizar gráficos tridimensionales. Sin embargo, esta tecnología se ha desarrollado en los últimos quince años; ha madurado en hardware, software, aplicaciones y contenidos. Actualmente, muchos celulares, consolas de videojuegos, PDA y TabletPC ya cuentan con algunos de los dispositivos necesarios para implementar realidad aumentada. La realidad aumentada consiste en un conjunto de dispositivos que añaden información virtual a la información física ya existente. Esta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprime los datos informáticos al mundo real. Los dispositivos de Realidad aumentada normalmente constan de un "headset" y un sistema de displays para mostrar al usuario la información virtual que se añade a la real. El "headset" lleva incorporado sistemas de GPS, necesarios para poder localizar con precisión la situación del usuario. También incluye sistemas inerciales y ópticos que son capaces de medir características como son la aceleración, la orientación y el ángulo de inclinación. Los dos principales sistemas de "displays" empleados son la pantalla óptica transparente (Optical See-through Display) y la pantalla de mezcla de imágenes (Video-mixed Display). Tanto uno como el otro usan imágenes virtuales que se muestran a los usuarios mezclados con la realidad o bien proyectados directamente en la pantalla. Estos ambientes gráficos van desde mundos virtuales, que nada tienen que ver con nuestros referentes reales y en los que las geometrías y las reglas que regulan a los objetos responden a conceptos abstractos, hasta reconstrucciones o replicas virtuales de espacios que existen o existieron y sobre los cuales un usuario reproduce las mismas sensaciones que le generarían en el mundo real (ahora inaccesible por razones geográficas o del tiempo). La capacidad de la realidad aumentada para incorporar objetos reales y virtuales en un mismo escenario, permite el uso de artefactos reales para manipular objetos virtuales o acciones y comportamientos de los objetos virtuales de los procesos de la computadora; esto es, la capacidad de la RA para darle sentido a los rasgos de los objetos reales y transformarlos en virtuales o mixtos, permite usar esta tecnología como una plataforma para la interacción humano-máquina. Sería interesante que una aplicación de Realidad Aumentada pudiera localizar elementos naturales (como árboles o rocas) que no hubieran sido catalogados previamente, sin que el sistema tuviera que tener un conocimiento previo del territorio. Como reto a largo plazo es posible sugerir el diseño de aplicaciones en los que la realidad aumentada fuera un poco más allá, lo que podemos llamar "realidad aumentada retroalimentada", esto es, que la "descoordinación" resultante del uso de sensores de posición/orientación, fuera corregida midiendo las desviaciones entre las medidas de los sensores y las del mundo real. Imagina un sistema de realidad aumentada que partiendo de pares de imágenes estéreo obtenidas de dos cámaras solidarias al usuario (head-mounted) y de la posición del mismo, fuera capaz de determinar la posición y orientación exacta del que mira. REALIDAD COMBINADA:
Es una evolución de la realidad aumentada la cual aun esta en fase de experimentación y que fue concebida en la Universidad de Illinois. En donde dos científicos, el profesor del departamento de física Alfred Hubler y un estudiante Vadas Gintautas, de Estados Unidos lograron por primera vez sincronizar los movimientos de un péndulo real con uno virtual valiéndose de los avances tecnológicos computacionales. Ambos son responsables de la creación del primer estado de realidad combinada en sistema físico. Utilizando un péndulo virtual y otro real, que fueron ajustados el uno al otro mediante un acoplamiento bidireccional instantáneo, cada uno de ellos pudo “sentir” al otro. En donde los movimientos de los dos péndulos se sincronizaron entre si, y ambos comenzaron a balancearse como si fueran uno solo. Alfred Hubler, profesor del Departamento de Física, declaró que en un estado de realidad combinada no existe una frontera clara entre el sistema real y el sistema virtual. “La línea entre lo que es real y lo que no lo es se difumina”. Sincronizacion del movimiento: En el experimento, conectaron el péndulo mecánico al virtual, que se movía según determinadas ecuaciones de movimiento. Se introdujeron datos sobre el péndulo real en el virtual, y enviaron información sobre el virtual a un motor que regía el movimiento del péndulo real. En otras palabras, se introdujeron parámetros en el péndulo virtual y se produjo una retroalimentación de la información (que llegó al péndulo mecánico), consiguiendo así que los dos sistemas se movieran sincronizadamente. En este estado de realidad combinada, el péndulo real y el virtual se balancearon como si fueran uno.
Control del mundo físico: Aunque anteriormente ya se habían acoplado péndulos mecánicos para generar movimientos sincronizados, ésta es la primera vez que se acopla un sistema mecánico a un sistema virtual. El estado de realidad combinada resultante ha sido posible gracias a la velocidad informática de la tecnología computacional actual. Según Hubler, los ordenadores son ahora lo suficientemente rápidos como para detectar la posición de un péndulo real, calcular la dinámica del péndulo virtual, y computar una información de vuelta apropiada para el péndulo físico. Un proceso que se desarrolla en tiempo real. Estos estados de realidad combinada pueden usarse para analizar y controlar con gran exactitud sistemas reales. Además, se abre la posibilidad de explorar el hecho de que un mundo virtual pueda afectar a objetos del mundo físico. Posibles aplicaciones: El experimento de Hubler y Gintautas demuestra las posibilidades que ofrece la realidad combinada. Dado que ésta se produce sólo cuando los sistemas virtual y
real son similares, se pueden utilizar sistemas virtuales para aprender más sobre cualquier sistema real, al que no podamos tener acceso directamente. De hecho, a medida que se ajusten los parámetros del sistema virtual para lograr la realidad combinada, los científicos aseguran que se podrán desarrollar estimaciones cada vez más exactas acerca del sistema real. Estas combinaciones perfeccionadas servirían, por ejemplo, para desarrollar video juegos o simuladores de vuelo. Problemas con la realidad combinada: Si los mundos virtuales se convierten cada vez más en afinadas descripciones del mundo real también podría existir un peligro. Según Hubler, podría llegar el momento, en una fase de transición, en el que la frontera entre realidad y realidad virtual desaparezcan. Y eso podría ocasionar problemas, como que no seamos capaces de determinar qué es real y que no. En ese caso, cualquier individuo que percibiera una amenaza en un mundo virtual podría sentirse amenazado en el mundo real, y volverse agresivo en éste. Por eso, advierte el científico, necesitaríamos comprender a fondo esta fase de transición potencial antes de que los sistemas virtuales mejoren hasta tal punto que realmente puedan inducir transiciones repentinas a estados de realidad combinada.
MICROSOFT SURFACE Orígenes La tecnología Multi-touch tiene al menos 25 años de historia, comenzando en 1982, con el trabajo inicial hecho en la Universidad de Toronto (multi-touch tablets) y Bell Labs (multi-touch screens). Es una técnica de interacción hombremáquina y al hardware que la implementa. El multi-touch (del inglés múltiple tacto) consiste en una pantalla táctil o touchpad que reconoce simultáneamente múltiples puntos de contacto, así como el software asociado a esta que permite interpretar dichas interacciones simultáneas. El primer dispositivo comercial que utilizaba esta tecnología fue el Lemur Input Device y en la actualidad es utilizada en dispositivos como el iPhone de Apple que ha sido elegido como uno de los mejores inventos por la revista Time debido a la introducción de nuevas formas de interactuar con un dispositivo móvil. Se está hablando mucho de que la popularización de estas interfaces podría causar similar impacto al provocado por el desarrollo de la línea de comandos ó a la introducción de la GUI en los 70.
Microsoft presentó el 29 de mayo del 2007 de manera oficial el lanzamiento de la tecnología Surface, una mesa con superficie multitáctil que es sensible a la interacción con otros objetos físicos como por ejemplo un teléfono móvil. La idea del producto para Surface fue inicialmente conceptualizada en 2001 por Steven Bathiche de Microsoft Hardware y Andy Wilson de Microsoft Research, En el 2003, el equipo presentó la idea al Microsoft Chairman Bill Gates, en una revisión de grupo. Microsoft
Surface es el último y espectacular lanzamiento de la compañía de Redmond y, a parte del hardware en concreto, constituye una nueva y revolucionaria forma en que el usuario puede interactuar con el ordenador. ¿Qué es Surface? Microsoft Surface es un producto de Microsoft que permite al usuario manejar contenidos digitales con movimientos de las manos u objetos. Generalidades Surface es esencialmente un computador dentro de una base de mesa negra. En la parte superior hay una pantalla táctil (touchscreen) de 30 pulgadas empotrado en una mesa de dimensiones de 56 cm de alto, 53 cm de profundidad y 107 cm de ancho. La parte superior de Surface es de acrílico y su marco interior está revestido de polvo de acero. El software corre bajo Windows Seven y posee conexión Ethernet, WiFi y Bluetooth. Cinco cámaras que se encuentran debajo pueden detectar los objetos que se acercan a la pantalla. Los usuarios pueden interactuar con el computador tocando o desplazando sus dedos y objetos como pinceles a través de la pantalla o con elementos del mundo real marcados con etiquetas RFID. Además, está compuesto por un Core 2 Duo con 2GB de RAM y tarjeta gráfica de 256 MB, Proyector DLP similar al que utilizan los televisores HDTV. Para Microsoft cuatro atributos definen las propiedades de Surface: •
Interactividad directa: Los usuarios pueden tomar información con sus manos mediante tacto y gestos, sin el uso del Mouse o del teclado.
•
Sistema
mulitáctil:
Reconoce
docenas
de
puntos
de
contacto
simultáneamente, no sólo con un dedo como en las actuales pantallas táctiles. •
Multiuso: La disposición horizontal permite que varias personas se reúnan alrededor de Surface y colaboren juntos en numerosas tareas.
•
Reconocimiento
de
objetos:
Surface
reconoce
instantáneamente
cámaras de fotos, móviles, y permite guardar y descargar contenidos sin enchufarlos a Surface.
Por el momento, parece que Microsoft no ha creído oportuno que su idea se comercialice directamente a las masas, si no que el despliegue de este fascinante invento se realizará inicialmente en cadenas de hoteles, restaurantes y, en general, establecimientos de ocio como parte de la oferta en nuevas tecnologías que estos ofrecen a sus clientes. De esta forma el usuario puede interactuar con el establecimiento de una forma más rápida y efectiva; imaginemos lo siguiente: un cliente entra en un bar, se sienta frente a una mesa-Surface que despliega ante sí una carta de bebidas y combinados. Mediante una pulsación, el cliente selecciona una bebida de su gusto que es encargada automáticamente al barman, el cual mezcla los ingredientes, la sirve y la pasa a un camarero indicándole su mesa de destino. Mientras tanto, y para amenizar la espera, nuestro sujeto ha abierto una página web en la pantalla interactiva, y con sus manos como única herramienta de señalización, ha abierto su buzón de correo y consultado los últimos mensajes que le han llegado. Este podría ser un buen escenario que ejemplifica el uso de Microsoft Surface.
De momento, el número de aplicaciones que están disponibles para el Surface no es demasiado elevado, pero representan un buen ejemplo de las posibilidades de esta mesa. Entre las que podemos mencionar juegos, el visor de fotografías, un visor de mapas. El caso del visor de fotografías es el que más conocemos de esta mesa, ya que es el que casi siempre se utiliza de ejemplo para mostrar su funcionamiento. Con él tenemos una serie de fotografías que podemos ver en la pantalla, ampliarlas, rotarlas. El funcionamiento es tan simple como efectista y no tendremos ningún problema para manejar la aplicación. En el visor podemos ver como el Surface es multitáctil no solo al detectar dos manos, sino con varios usuarios al mismo tiempo, permitiendo rotar o ampliar más de una fotografía a la vez. La aplicación de visualización de mapas es la translación de Microsoft Virtual Earth a la interfaz del Surface, permitiendo manejarlo con las manos, realizar zoom fácilmente y movernos por todo el planeta rápidamente, tanto en la vista de mapas como en la vista de satélite. Los que hayan podido probar la aplicación de Mapas del iPhone o del iPod Touch sabrán como funciona esta, aunque en este caso tenemos una pantalla mucho más grande y, por tanto, mucho más espectacular. Otras aplicaciones disponibles son los juegos, como ejemplo se puede mencionar: conseguir que las líneas que unen puntos no se crucen; una especie de líquido que podemos manipular o un piano, que demuestra las capacidades multitáctiles permitiendo pulsar más de una tecla al mismo tiempo.
Interacción con dispositivos Una de las características más impactantes es la interactividad que se alcanza con una cámara digital, un móvil, un reproductor de música o incluso una tarjeta de crédito, con sólo situarlos sobre la superficie. Para detectar el posicionamiento de estos dispositivos, o simplemente de nuestra mano, se dispone de cámaras que detectan la presión y envían la información pertinente al sistema. Las imágenes se muestran gracias a un sistema de retro-proyección. Estos objetos físicos deben incorporar códigos de identificación. Esto significa que cuando un usuario pone una copa sobre Surface, el restaurante puede proporcionarle a través de la pantalla información del vino que están bebiendo, imágenes de la viña de donde proviene y sugerencias sobre la comida adecuada para acompañar al vino. La experiencia puede ser totalmente inmersiva, permitiendo que los comensales puedan buscar hoteles o comprar billetes de avión sin abandonar la mesa. Puntos Importantes •
Microsoft colocó las primeras unidades de Surface en los hoteles Sheraton, los casinos Harrah's, las tiendas T-Mobile y restaurantes.
•
La compañía venderá el equipo entre 5 mil y 10 mil dólares.
•
El objetivo es abaratar los precios para los consumidores en 3 ó 5 años e introducir varias formas y presentaciones.
•
De hecho, se ha comenzado a vender a partir del 2007 a hoteles, restaurantes, grandes almacenes o casinos. De ahí, al usuario doméstico queda mucho.
Desventajas -
Ergonomía
-
Uso primordial para usuarios finales
-
Aplicaciones limitadas
-
Precio
-
Tamaño
ZERO INK Imagine un mundo en el que cuando usted está viendo el canal de la alimentación se puedan imprimir las recetas directamente de su caja de cable. Su GPS no sólo lo dirige a una estación de esquí, sino también le imprime un ticket de de entrada y cupones para alimentos en el restaurante.
Un marco de foto digital no sólo muestra una foto de su nuevo bebé, sino también le ayuda a utilizar sus fotos para modificarlas e imprimirlas. Un ejecutivo de negocios puede imprimir un proyecto de su presentación en tarjetas de índice, mientras vuela a la reunión, así como imprimir su pasaje para el próximo vuelo.
Con la tecnología ZINK ™, todo esto y más puede ser posible. En el mundo ZINK, cuando usted tiene el deseo de mantener una copia impresa de cualquier contenido digital que desee en sus manos, todo lo que se necesita es el toque de un botón. Su ordenador portátil será capaz de imprimir, su Xbox360 será capaz de imprimir, su televisor será capaz de imprimir, en fin cualquier electrodoméstico puede llegar a ser capaz de imprimir.
En el mundo ZINK, el toque de un botón de impresión aporta una experiencia completamente nueva dando como resultado toda una nueva sensación de libertad, espontaneidad y un montón de sonrisas.
¿Qué es ZINK ™?
ZINK ™ está a favor de Cero Tinta ™ una sorprendente nueva forma de imprimir a todo color sin necesidad de cartuchos de tinta o cintas. La tecnología permite una nueva categoría de dispositivos de impresión a color, combinado con el papel, convirtiéndose en un sistema para imprimir de una forma totalmente nueva. La tecnología ZINK se basa en los avances de la química, la ingeniería, la física, la imagen de la ciencia, y la fabricación. ZINK fue desarrollado a lo largo de varios años y ha generado una cartera de propiedad intelectual que incluye más de 100 patentes y patentes pendientes. Y el desarrollo de la próxima generación de ZINK continúa en crecimiento en los laboratorios especializados a diario.
¿Cómo funciona ZINK ™?
El corazón de la tecnología de ZINK es el patentado papel ZINK, un avanzado material compuesto con cristales incrustados dentro con los colores cian, amarillo, magenta y un polímero protector en la capa exterior. Los cristales son incoloros antes de la impresión, por lo que ZINK parece ser papel blanco ordinario del tipo fotográfico. El calor de un dispositivo ZINK activa los cristales pudiendo dar la formación de todos los colores del arco iris. El proceso de impresión es ahora radicalmente simple. Sólo añadir Papel ZINK ™ e imprimir lo que usted quiera.
ZINK ™ cristales amorfocrómicos de tinte
La propiedad que da a los cristales ZINK ™ su color se le ha llamado “cristales amorfocrómicos”, representan una nueva clase de moléculas, inventado por los científicos de ZINK Imaging a través de un riguroso proceso de descubrimiento. Las propiedades de cada cristal de tinte son finamente sintonizadas para lograr la paleta de colores y la estabilidad de la imagen necesaria para dar impresiones digitales a todo color.
Los científicos de ZINK Imaging también inventaron una manera de activar cada uno de los cristales de forma independiente utilizando pulsos de calor para determinar con precisión la duración y la temperatura para lograr cualquier color en el arco iris.
ZINK ™ estructura de papel
A través de un avanzado proceso de fabricación, el ZINK ™ forma capas de color que están recubiertas de un fino color de varias capas "pila" en una capa de base. El espesor total de todas las capas combinado es de aproximadamente el grosor de un cabello humano. El cian, magenta, y amarillo son capas de cristal incoloro a temperatura ambiente y se activan por el calor durante el proceso de impresión para crear el color.
Características principales del papel de ZINK ™: • Cero tinta necesaria. • Capaz de reproducir millones de colores vivos en muy alta resolución. • Amigable con el ambiente. Menos residuos, no cartuchos, sin embalaje para tirar. • Protegido por un abrigo de polímeros, ofreciendo resistencia al agua y durabilidad de la imagen. • Asequible para el uso cotidiano. • No sensible a la luz. • Larga duración y diseñado para resistir el desvanecimiento de la exposición a la luz, el calor y la humedad. Obtener ZINK El primer producto ZINK ™ habilitado es la Polaroid Pogo ™ Mobile Printer instantánea, y papel compatibles con ZINK ™, Y hay más ZINK habilitado para los productos por venir ESTADOS UNIDOS
INGLATERRA
FRANCIA
ALEMANIA
ESPAÑA
Precios Actuales Impresora $99.95 •
Impresora fotográfica portátil instantáneamente.
•
Características automáticas de optimización de la calidad de la imagen con resistencia al agua, a prueba de rotura y manchas.
•
Imprime páginas de 2 x 3 pulgadas sin bordes en imágenes en color en virtud de un minuto.
•
Con capacidad inalámbrica Bluetooth interfaz de disco duro, interfaz USB 2.0
•
Para uso con cámaras digitales y teléfonos celulares.
que ofrece imágenes que se secan
Polaroid Zink Pogo papel fotográfico de 60 pk $19.99 •
60 páginas de 2 x 3 pulgadas
SISTEMAS DE SEGURIDAD BASADOS EN RECONOCIMIENTO BIOMÉTRICO El acceso a la información ha alcanzado un desarrollo sin precedentes. Internet y redes han puesto en comunicación al mundo. Ahora más que nunca, es necesario proteger la información digital.
Entenderemos por sistema biométrico a un sistema automatizado que realiza labores de biometría. Es decir, un sistema que fundamenta sus decisiones de reconocimiento mediante una característica personal que puede ser reconocida o verificada de manera automatizada. En esta sección son descritas algunas de las características más importantes de estos sistemas. La biometría es una herramienta que utiliza rasgos morfológicos únicos en cada individuo, como su huella digital, rostro o iris. Esta tecnología de punta es utilizada para el reconocimiento de la identidad de los usuarios ya sean empleados o clientes de su entidad.
Los parámetros a tomar en cuenta en la rama de reconocimiento biometricos estan: 1) Reconocimiento de rasgos faciales. 2) Reconocimiento de huellas dactilares. 3) Reconocimiento de voz. 4) Reconocimiento de retina ocular. Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela. Sin embargo, estas líneas se intersectan y a veces terminan en forma abrupta. Los puntos donde éstas terminan o se bifurcan se conocen técnicamente como minucias.
Otros puntos singulares de una huella dactilar son aquellos donde la curvatura de los ridges es máxima. Esos puntos reciben el nombre de cores y deltas. La
característica más interesante que presentan tanto las minucias como los puntos singulares cores y deltas es que son únicos para cada individuo y permanecen inalterados a través de su vida.
Las principales dificultades en el proceso de matching son: 1. En una imagen de calidad hay alrededor de 70 a 80 minucias en promedio, cantidad que contrasta abiertamente con las presentes en una imagen latente o parcial cuyo valor promedio es del orden de 20 a 30. 2. Hay traslaciones, rotaciones y deformaciones no lineales de las imágenes que se heredan a las minucias. 3. Aparecen minucias espurias, mientras otras verídicas desaparecen. 4. La base de datos puede ser muy grande. 5. No existe un método de comparación que entregue una coincidencia exacta entre las características de la imagen de entrada y las pertenecientes a la base de datos.
Este postula la existencia de tres indicadores de identidad que definen el proceso de identificación: 1. Conocimiento: la persona tiene conocimiento (por ejemplo: un código), 2. Posesión: la persona posee un objeto (por ejemplo: una tarjeta), y 3. Característica: la persona tiene una característica que puede ser verificada (por ejemplo: una de sus huellas dactilares).
Características de un indicador biométrico Un indicador biométrico es alguna característica con la cual se puede realizar biometría. Cualquiera sea el indicador, debe cumplir los siguientes requerimientos: 1. Universalidad: cualquier persona posee esa característica; 2. Unicidad: la existencia de dos personas con una característica idéntica tiene una probabilidad muy pequeña; 3. Permanencia: la característica no cambia en el tiempo; y 4. Cuantificación: la característica puede ser medida en forma cuantitativa. Características de un sistema biométrico para identificación personal
1. El desempeño, que se refiere a la exactitud, la rapidez y la robustez alcanzada en la identificación, además de los recursos invertidos y el efecto de factores ambientales y/u operacionales. El objetivo de esta restricción es comprobar si el sistema posee una exactitud y rapidez aceptable con un requerimiento de recursos razonable.
2. La aceptabilidad, que indica el grado en que la gente está dispuesta a aceptar un sistema biométrico en su vida diaria. Es claro que el sistema no debe representar peligro alguno para los usuarios y debe inspirar "confianza" a los mismos. Factores psicológicos pueden afectar esta última característica. Por ejemplo, el reconocimiento de una retina, que requiere un contacto cercano de la persona con el dispositivo de reconocimiento, puede desconcertar a ciertos individuos debido al hecho de tener su ojo sin protección frente a un "aparato". Sin embargo, las características anteriores están subordinadas a la aplicación específica. En efecto, para algunas aplicaciones el efecto psicológico de utilizar un sistema basado en el reconocimiento de características oculares será positivo, debido a que este método es eficaz implicando mayor seguridad. 3. La fiabilidad, que refleja cuán difícil es burlar al sistema. El sistema biométrico debe reconocer características de una persona viva, pues es posible crear dedos de látex, grabaciones digitales de voz prótesis de ojos, etc. Algunos sistemas incorporan métodos para determinar si la característica bajo estudio corresponde o no a la de una persona viva. Los métodos empleados son ingeniosos y usualmente más simples de lo que uno podría imaginar. Por ejemplo, un sistema basado en el reconocimiento del iris revisa patrones característicos en las manchas de éste, un sistema infrarrojo para chequear las venas de la mano detecta flujos de sangre caliente y lectores de ultrasonido para huellas dactilares revisan estructuras subcutáneas de los dedos.
La arquitectura típica de un sistema biométrico se presenta en la figura 1. Esta puede entenderse conceptualmente como dos módulos: 1. Módulo de inscripción (enrollment module) y 2. Módulo de identificación (identification module)
El módulo de inscripción se encarga de adquirir y almacenar la información proveniente del indicador biométrico con el objeto de poder contrastar a ésta con la proporcionada en ingresos posteriores al sistema. Las labores ejecutadas por el módulo de inscripción son posibles gracias a la acción del lector biométrico y del extractor de características. El módulo de identificación es el responsable del reconocimiento de individuos, por ejemplo en una aplicación de control de acceso. El proceso de identificación comienza cuando el lector biométrico captura la característica del individuo a ser identificado y la convierte a formato digital, para que a continuación el extractor de características produzca una representación compacta con el mismo formato de los templates.
Fase operacional de un sistema de identificación personal. Un sistema biométrico en su fase operacional puede operar en dos modos:
1. Modo de verificación, o 2. Modo de identificación Un sistema biométrico operando en el modo de verificación comprueba la identidad de algún individuo comparando la característica sólo con los templates del individuo.
Un sistema biométrico operando en el modo de identificación descubre a un individuo mediante una búsqueda exhaustiva en la base de base de datos con los templates.
Exactitud en la identificación: medidas de desempeño La información provista por los templates permite particionar su base de datos de acuerdo a la presencia o no de ciertos patrones particulares para cada indicador biométrico. Las "clases" así generadas permiten reducir el rango de búsqueda de algún template en la base de datos. Sin embargo, los templates pertenecientes a una misma clase también presentarán diferencias conocidas como variaciones intraclase. Las variaciones intraclase implican que la identidad de una persona puede ser establecida sólo con un cierto nivel de confianza. Una decisión tomada por un sistema biométrico distingue "personal autorizado" o "impostor". Para cada tipo de decisión, existen dos posibles salidas, verdadero o falso. Por lo tanto existe un total de cuatro posibles respuestas del sistema: 1. 2. 3. 4.
Una persona autorizada es aceptada, Una persona autorizada es rechazada, Un impostor es rechazado Un impostor es aceptado.
Sistemas biométricos actuales. En la actualidad existen sistemas biométricos que basan su acción en el reconocimiento de diversas características, como puede apreciarse en la figura 3. Las técnicas biométricas más conocidas son nueve y están basadas en los siguientes indicadores biométricos: 1. 2. 3. 4. 5. 6. 7. 8. 9.
Rostro, Termograma del rostro, Huellas dactilares, Geometría de la mano, Venas de las manos, Iris, Patrones de la retina, Voz, Firma.
Cada una de las técnicas anteriores posee ventajas y desventajas comparativas, las cuales deben tenerse en consideración al momento de decidir que técnica utilizar para una aplicación específica. En particular deben considerarse las diferencias entre los métodos anatómicos y los de comportamiento. Una huella dactilar, salvo daño físico, es la misma día a día, a diferencia de una firma que puede ser influenciada tanto por factores controlables como por psicológicos no intencionales. Huellas Dactilares Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela (colinas o ridge lines y furrows). Sin embargo estas líneas se intersectan y a veces terminan en forma abrupta. Los puntos donde las colinas terminan o se bifurcan se conocen técnicamente como minucias.
Para reconocer una huella dactilar se procede desde una escala gruesa a una fina. En primer lugar se clasifica a la huella, es decir, se asigna a una clase previamente determinada de acuerdo a la estructura global de los ridges. El objetivo de esta etapa es establecer una partición en la base de datos con huellas. En general la distribución de las huellas en las distintas clases es no uniforme, esto obliga a subclasificar a la huella en estudio, es decir, generar un nuevo conjunto de clases a partir de las ya definidas. Luego se procede a la comparación a escala fina. Este proceso recibe el nombre de matching. El proceso consiste en comprobar si el conjunto de minucias de una huella coincide con el de otra.
COMBUSTIBLE HHO El oxihidrógeno (HHO) es una mezcla de hidrógeno y oxígeno en proporción que se asume de 2:1, misma proporción del agua (H2O). El oxihidrógeno se produce habitualmente a partir de la electrólisis del agua. La Electrólisis consiste en la descomposición mediante una corriente eléctrica de sustancias ionizadas denominadas electrolitos. La palabra electrólisis procede de dos radicales, electro que hace referencia a electricidad y lisis que quiere decir ruptura. En el proceso se desprenden el oxigeno(O) y el hidrogeno (H).
Un electrólito es una sustancia que se descompone en iones (partículas cargadas de electricidad) cuando se disuelve en los líquidos del cuerpo o el agua, permitiendo que la energía eléctrica pase a través de ellos. Los electrólitos pueden ser débiles o fuertes, según estén parcial o totalmente ionizados o disociados en medio acuoso. Un electrolito fuerte es toda sustancia que al disolverse en agua lo hace completamente y provoca exclusivamente la formación de iones con una reacción de disolución prácticamente irreversible. Un electrolito débil es una sustancia que al disolverse en agua lo hace parcialmente y produce iones parcialmente, con reacciones de tipo reversible. Los electrolitos generalmente existen como ácidos, bases o sales. Un electrólito se describe como concentrado si tiene una alta concentración de iones; o diluido, si tiene una baja concentración. Si tiene una alta proporción del soluto disuelto se disocia en iones, la solución es fuerte; si la mayor parte del soluto permanece no ionizado la solución es débil. El proceso consiste en lo siguiente: •
Se funde o se disuelve el electrolito en un determinado disolvente, con el fin de que dicha sustancia se separe en iones (ionización).
•
Se aplica una corriente eléctrica continua mediante un par de electrodos conectados a una fuente de alimentación eléctrica y sumergidos en la disolución. El electrodo conectado al polo negativo se conoce como cátodo, y el conectado al positivo como ánodo.
•
Cada electrodo mantiene atraídos a los iones de carga opuesta. Así, los iones positivos, o cationes, son atraídos al cátodo, mientras que los iones negativos, o aniones, se desplazan hacia el ánodo.
•
La energía necesaria para separar a los iones e incrementar su concentración en los electrodos es aportada por la fuente de alimentación eléctrica. Descubierta por el médico francés Nazho PrZ.
•
En los electrodos se produce una transferencia de electrones entre estos y los iones, produciéndose nuevas sustancias. Los iones negativos o aniones ceden electrones al ánodo (+) y los iones positivos o cationes toman electrones del cátodo (-).
En definitiva lo que ha ocurrido es una reacción de oxidación-reducción, donde la fuente de alimentación eléctrica ha sido la encargada de aportar la energía necesaria. Tras hacer una electrolisis además de desprenderse el oxigeno y el hidrogeno también se dejan ver los otros componentes del agua (minerales, como el hierro, etc. u otros componentes según la zona de donde proviene el agua.); esto en caso de ser agua no destilada, en el agua destilada solo se desprenden el oxigeno y el hidrogeno, porque ya se han extraído los otros componentes previamente. Es importante tomar en cuenta varios puntos: - Nunca debe juntar los electrodos, ya que la corriente eléctrica no va a hacer su proceso y la batería se va a sobrecalentar y se quemará. - Debe utilizar siempre Corriente continua (energía de baterías o de adaptadores de corriente), NUNCA Corriente alterna (energía de enchufe) - La electrolisis debe hacerse de tal manera que los dos gases desprendidos no entren en contacto, de lo contrario se juntarían de nuevo produciendo agua.
Generador HHO Usted desea saber cómo puede usar el AGUA como COMBUSTIBLE y reírse del Precio del Combustible, mientras que usted reduce el consumo de combustible de su Vehiculo y previene el calentamiento global
¿Es el agua un suplemento a la gasolina?. Se pregunta muy seguido, sin embargo es posible y muy fácil extraer energía del agua para funcionar su coche con el agua también. Una tecnología simple que usted puede tener ahora, llamado ACC (Agua con Combustible). Es uno de los dispositivos más prácticos de la energía gratis, marcado por simplicidad y eficacia extraordinarias. Se han desarrollado los dispositivos que utilizan poca electricidad de su batería del coche, para separar el agua en un gas llamado HHO (hidrógeno 2 + 1 oxígeno). HHO se quema maravillosamente y proporciona mucha energía mientras que el producto final es AGUA. El compartimiento móvil dice que HHO proporciona la energía atómica del hidrógeno, mientras que mantiene la estabilidad química del agua. · Se toma una tecnología del Año 1917. · Se Simplifica. · Es fácil de instalar y mantener. · Se puede usar para el Sistema de inyección o carburación de gasolina o de Diesel. El motor de un auto utiliza el 20% de la energía almacenada en la gasolina (costosa) y pierde el 80% para el calor, contaminación (el combustible incombusto) y vibración. Reducir la basura con esta tecnología, es igual a "energía gratis " para todos lo que lo utilizan. El Tiempo ha venido para esta Tecnología, mucho se habla de la potencia del hidrógeno. Se dice, que los coches del hidrógeno con sus Tanques presurizadas del hidrógeno es un peligro enorme para la seguridad.
La solución a esto se llama ACC y provee de "Hidrogeno cuando necesito " Ningún tanque de almacenaje. Mejor y perfectamente seguro para usted y sus pasajeros (familia). Se puede pensar "¿agua cuando está convertido en gas es explosivo, no es peligroso?" no, no es peligroso, debido a varios factores que se mostrarán mas adelante. Se ha estado probando él Sistema cada día sobre un año, usando la
tecnología ACC en climas muy calientes y muy fríos, y se a podido comprobar que es totalmente SEGURO. La manera en que se produce la energía del agua es muy segura y será encendida solamente por la chispa fuerte dentro de su motor. Al crear estos generadores se buscan tres características principales, para que puedan ser usados por cualquier persona en su vehículo, estas son: 1) Ser "COMPACTOS" para que se puedan instalar en cualquier motor. 2) Ser "ECONOMICOS" para que estén al alcance de cualquier bolsillo o persona normal como usted o como yo, utilizando materiales elaborados con la tecnología mas vanguardista, en los campos de la manufactura plástica, metálica y eléctrica, con materiales muy sofisticados pero a la vez muy económicos. 3) Ser "EFICIENTES" en la generación de Hidrogeno, para lograr un funcionamiento sobre demanda, eliminando los riesgos inherentes al almacenaje de este combustible potente en el vehículo y que puedan lograr un autentico ahorro en el consumo de combustibles fósiles y en consecuencia una disminución en la contaminación de nuestra atmosfera. COMO CREAR EL GENERADOR DE COMBUSTIBLE HHO La pieza central esta hecha de vinill, es una pieza montada en cruz, la cual lleva una serie de hoyos en las orillas de cada lado, por donde se pasara el cable de la resistencia, al cual están conectadas las entradas de corriente; además sale una manguera que es por donde sale el hidrogeno, todo esto esta pegado (con pegamento para PVC), a un tapón de un bote de vidrio (que es el recipiente donde se deposita el agua). Esta pieza va incrustada en el recipiente de vidrio, ya con agua en su interior, esta agua debe de ser destilada o de batería de carro, para que vaya sin sus demás componentes, además se le debe de mezclar con una cucharada de bicarbonato para que le sirva como catalizador (para que se de mas rápido la electrolisis), se dice que un litro de agua da para 500 kms. Si su carro es de carburador, el problema para disminuirle el consumo de combustible es mas complejo, ya que este (el combustible), es pasado através de unos orificios en los chicleros, estos orificios deben de irse reduciendo para que pase menos combustible, pero como no hay un estándar, debe de irse haciendo
con el método de la prueba – error; mientras que si es de inyección, necesitara un componente extra, el cual es una cajita que controla el voltaje que le llega al sensor MAP, que es el encargado de mandarle una señal a la computadora, por medio de voltaje, para indicarle el tiempo que mantendrá abiertos los inyectores, entre menos voltaje le llegue, menos tiempo los tendrá abiertos y por lo tanto, consumirá menos combustible. Esto debe de hacerse con cuidado, ya que si se le deja mucho Hidrogeno o le hace falta, el motor comenzara a sentirse inestable, por lo tanto debe de haber una combinación idónea
del hidrogeno que se le esta haciendo llegar y el
combustible que se le esta haciendo pasar.
Como Trabaja Es muy simple, usted no cambia su motor o computadora. Un envase 1/4 de galón o 95O CC se coloca en alguna parte debajo del capo motor, en donde este seguro y estable, para que no vaya a sufrir ningún daño con el andar del vehículo. Usted lo llena de AGUA y un poco de Catalizador (una cucharada de bicarbonato de sodio). El dispositivo consigue el vacío y la electricidad (12 voltios) del motor (que es el voltaje proporcionado por la batería del vehículo), y produce por medio de la electrolisis, el gas de HHO (Hidrogeno + Oxígeno). El gas de HHO se provee al múltiple del motor o al carburador según lo demostrado abajo, de pendiendo del tipo de vehículo que sea. El gas es absorbido cuando se abren las mariposas, lo cual es resultado de la aceleración del vehículo. La conexión eléctrica es muy simple, se ha eliminado los relais o cualquier otra complicación. El dispositivo conecta con 12 voltios de su batería vía el interruptor de la ignición, para prevenir la producción del hidrógeno cuando el motor está apagado. El dispositivo es protegido con un fusible, esto toma 10 minutos o menos para instalar. Se ha hablado mucho de los buenos resultados de utilizar este generador, pero también se debe de hablar de un inconveniente o desventaja de este sistema, el cual es que en vehículos de años anteriores con mas de 250,000 kms. recorridos y sin ningún ajuste de motor, se debe de controlar el consumo de aceite, ya que debido a que el generador de HHO limpia el carbón de la gasolina quemada de los pistones y los deja mas libres, al haber pasado el vehiculo mucho tiempo y sin ningún ajuste, se a formado una capa gruesa de carbón y cuando la quita el HHO, queda floja y por lo tanto comienza a quemar mas aceite.
SONY READER SONY READER
El
Sony
Reader
es
un
libro
electrónico capaz de almacenar docenas
de
libros en su memoria interna, además de
ser
ampliable con tarjetas SD o con Memory Stick.
Con este libro podemos visualizar ficheros PDF, JPEG y páginas web. Los libros podrán ser adquiridos a través de Sony Connect.
La batería tiene una duración de 7500 páginas (no gasta nada hasta que se cambia de página) y la visibilidad es muy buena incluso con luz solar y como no dispone de luz trasera la fatiga de los ojos será mucho menor.
El
liviano
Sony®
Reader,
un
revolucionario
dispositivo
llamado
a
transformar la experiencia de lectura electrónica, dará indudablemente muy pronto un significado enteramente nuevo a la expresión "lector avispado".
Con su innovadora representación en papel electrónico y su precisa navegación controlable con una sola mano, el Sony® Reader ofrece no sólo un diseño elegante y duradero, sino también todo lo que un activo lector desea llevar a un viaje largo o a la vuelta de la esquina.
Del tamaño aproximado de una novela en rústica, pero más delgado que la mayoría de ellas (apenas media pulgada de grosor), el dispositivo puede almacenar centenares de libros en su memoria interna cuando se le acopla una tarjeta de memoria flash opcional Memory Stick® o Secure Digital (SD).
El Sony® Reader puede almacenar y representar lo mismo documentos personales en formato Adobe PDF, que contenidos Web favoritos, por ejemplo columnas en línea, noticias y fotos JPEG. Con una duración de batería que parece no tener límite -más o menos equivalente a 7.500 vueltas de página-, los lectores ávidos pueden devorar una docena de éxitos de librería, más La Guerra y la Paz sin tener que recargar la batería.
"En los últimos años, millones de personas se han venido sintiendo cada vez más cómodas descargando y disfrutando medios digitales, por ejemplo libros electrónicos, pero hasta ahora no había un buen dispositivo que permitiera leer", declaró Ron Hawkins, vicepresidente senior de Mercadeo de Sistemas de Lectura Personal en Sony Electronics. "Nuestra investigación ha demostrado que el público busca un dispositivo exclusivamente diseñado para la lectura inmersiva. Con su visualizador de papel electrónico, su formato delgado y su extraordinaria duración de batería, el Sony® Reader da la talla".
Representación con Verdadera Apariencia de Papel Parte de la magia creada por el Sony® Reader es la tecnología de representación a alta resolución del papel electrónico, cuya apariencia realista de material impreso rivaliza con la del mismo papel tradicional. El resultado es texto y gráficas legibles en diversos ángulos de visión, incluso al aire libre en plena luz del sol. Puesto que no hay contraluz, el lector no siente la fatiga típicamente
asociada con los largos períodos de lectura en una pantalla LCD. Y, dado que la tecnología representa cada página como una imagen fija, no hay parpadeo ni constante regeneración de la pantalla -dos cosas que agravan la fatiga visual.
Los usuarios afectados por un deterioro o limitación de la vista disfrutarán el tamaño ajustable del texto en el Sony® Reader, pues pueden aumentarlo o reducirlo al gusto.
Conectado a Miles de Títulos Sony Connect® apoyará el lanzamiento del Sony® Reader con una tienda en línea fluidamente integrada a través de una aplicación de escritorio fácil de usar llamada Connect Reader. El software permite buscar y explorar entre miles de libros electrónicos descargables, manejar los libros electrónicos comprados y transferirlos fácilmente al dispositivo Sony® Reader. Al principio, Connect Store ofrecerá una amplia selección de éxitos en literatura novelesca y no novelesca, autores famosos, clásicos y más, con rico contenido descriptivo en la forma de biografías de autores, reseñas de libros por expertos y comentario de lectores.
Adicionalmente, Connect Store ofrecerá contenidos en línea conseguidos por medio de RSS (Really Simple Syndication).
"Leer libros es parte vital de la experiencia general de lectura, que cada vez más se centra en contenidos provenientes de fuentes informativas en línea,
columnas en línea y otras formas de contenido Web", comentó Lee Ali Shirani, vicepresidente de Sony Connect. "Connect permitirá al usuario tomar libros electrónicos, contenidos noticiosos y otros medios en línea y disfrutarlos en la comodidad de un dispositivo portátil, lo que hace de Sony® Reader la herramienta por excelencia para todo lo que se refiera a textos".
Diseñador de carátulas Una buena noticia para quienes el diseño del Sony le resulte demasiado "soso". Se trata de Tego, una página que te permite crear online diseños propios, tanto diseños que
se pueden subir desde el ordenador, o bien utilizando la
galería que la propia página pone a disposición.
Una vez realizado el diseño, lo cual cuesta apenas dos minutos, se puede comprar en la misma página, la cual, por 7'95 euros una sola cara o 12'95 las
dos, a la que hay que sumar 2 euros de gastos de envío, y remite un vinilo adhesivo (no encolado) que se puede aplicar al lector para dejarlo de lo más fashion.
MICROBLOGGING 0x000 Definición Acorde a la wikipedia el microblogging (tambien llamado nanoblogging) es un servicio que nos permite enviar mensajes de texto simples y relativamente cortos, por diferentes medios como por ejemplo SMS, mensajeria instantanea, sitios web o redes ad hoc. Extendiendo el concepto podemos decir que es un medio de comunicacion similar y derivado de los blogs o weblogs que destaca por su excesiva sencillez restringiendo al usuario a enviar mensajes de corta duracion (es casi una convencion la restriccion a 140 caracteres) de manera que puedan ser transmitidos por diferentes medios como los telefonos celulares via mensajes SMS, paginas web o aplicaciones de escritorio dispuestas para tal fin de manera que se les faciliten los medios de transmision y recepcion disponibles para los usuarios siendo mas sencillo el proceso de transmitir ideas tan simples que puedan ser explicadas con texto plano en no mas de 140 caracteres y los interesados en esta noticia puedan estar al tanto de ello a traves de internet o SMS en un intervalo de no mas de un minuto de retraso, sin restricciones tecnologicas o geograficas. Algunos suelen confundir al microblogging con la mensajeria instantanea pero cada uno tiene diferentes aplicaciones y usos. Por ejemplo, en la mensajeria instantanea la comunicacion es entre dos personas a la vez. Un mismo mensaje solo puede ser transmitido a una sola persona, a menos que se organice una sala de chat. En cambio, en el microblogging cada usuario actualiza su estado enviando el mensaje y este es reproducido y recibido de forma simultanea por cada uno de los usuarios "seguidores" del que transmitio el mensaje. Algunos de los servicios de mcroblogging permiten ademas enviar mensajes directos a una persona, de forma publica o tambien de forma privada.
0x001 Orígenes A continuación se muestra una linea de tiempo con los servicios, accesorios y clientes del microblogging, desde su nacimiento hasta abril de 2008:
0x010 Servicios Entre los servicios que ofrecen caracteristicas similares al microblogging se encuentran los mencionados en la linea de tiempo anterior y ademas otros que listaremos a continuacion pero entre ellos, quien mas popularidad ha tenido desde sus inicios ha sido: Twitter. Twitter (http://twitter.com) Plurk (http://www.plurk.com/) Pownce (http://pownce.com/) Jaiku (http://www.jaiku.com/) Identi.ca (http://identi.ca/) Ultimamente otros servicios como las redes sociales han incorporado la capacidad del microblogging como es el caso de facebook (el cual fue uno de los pioneros al incorporar este servicio), myspace, pringo y hi5.
0x010 Aplicaciones
La aplicación mas común y mas sencilla del microblogging ha sido desde sus inicios responder a una simple pregunta:
What are you doing? (Que estas haciendo?)
Lo cual significa que por lo general, los servicios de microblogging pretenden que el usuario actualice su estado con lo que hace a cada momento, por ello y por los diferentes medios por los cuales es posible acceder al servicio es que se vuelve tan adictiva esta actividad. Despues del boom de twitter, surgieron muchos otros accesorios para este que permitian aprovechar su popularidad y simplicidad para otros servicios como es el caso los que listaremos a continuación. Estos son servicios que se integran con el mas popular de los servicios de microblogging: Twitter.
•
•
•
•
Twitpic: Servicio para alojamiento de imágenes que se asocia con tu cuenta de twitter de manera que te permite publicar la imagen al momento de subirla al servidor agregandole un comentario en twitter junto con un vínculo a dicha imagen. Blip.fm: que permite escuchar música en línea, mientras que se escribe un twitt con un comentario sobre la canción y un vínculo para que los followers o contactos de twitter puedan conocerlo. Algo asi como responder a la pregunta "Que musica estas escuchando?" Twitterfeed: El cual te permite usar una cuenta de twitter como un consumidor de RSS/Atom feeds para poder mostrar de manera automatica en tus actualizaciones de twitter, por ejemplo, los ultimos posts que has escrito en tu blog. Twittertise y twittadd: Los cuales permiten aprovechar la popularidad de twitter para promover anuncios publicitarios de empresas y ganar algo de dinero con ello.