1 TOUCH SIGHT. Los últimos avances de la tecnología en la medicina casi permiten devolverles la vista a los no videntes. Ahora con los avances tecnológicos en el área de equipos prácticamente se les ha devuelto el privilegio de la vista a las personas que por a o b motivo perdieron la vista y así mismo a las personas que nacieron con esa limitación y que han luchado toda la vida esa limitación. Las personas no videntes por el simple hecho de no poseer los 5 sentidos han desarrollado en mayor proporción los sentidos que poseen por ejemplo las personas ciegas desarrollan mucho mas el sentido del tacto, y en menor proporción los restantes 3 sentidos pero si en mayor grado que una persona normal. Tomando como base lo anterior expuesto los avances tecnológicos se basan en las oportunidades o características sobresalientes de la rama en la que se está trabajando. En el caso particular de las personas con vista limitada o nula se trabaja mucho lo que es el sentido del tacto y por ello se han desarrollado muchas tecnologías basadas en esta característica por ejemplo podemos listar los siguientes:
Sistema de lectura braille.
Impresora en braille.
Teclado braille.
Se podría preguntar ¿Qué es el sistema Braille? Cuando tenía 15 años, el joven Louis Braille (1809-1852), quien a tierna edad había quedado ciego como consecuencia de un accidente, inventó un sistema de lectura y escritura por medio del tacto que consistía de puntos. El braille, un verdadero alfabeto, consiste en leer moviendo la mano de izquierda a derecha, pasando por cada línea. Los lectores de braille pueden leer un promedio de 104 a 125 palabras por minuto, aunque algunos pueden alcanzar a leer 250 palabras por minuto utilizando ambas manos. El tamaño y distribución de los 6 puntos que forman el llamado Signo Generador no es un capricho sino fruto de la experiencia de Braille. Las terminaciones nerviosas de la yema del dedo están capacitadas para captar este tamaño en particular. El Signo Generador sólo permite 64 combinaciones de puntos, siendo insuficientes para la variedad de letras, símbolos y números de cada idioma. Esta limitación obligará a la invención de los llamados "símbolos dobles". Se intentó utilizar un símbolo braille de 8 puntos (lo que aumentaría considerablemente el número de combinaciones posibles), pero resultaba incómodo para la lectura. Los puntos negros pequeños son los puntos del signo generador que no están en relieve, sólo se dibujan para una mejor comprensión de cada símbolo. signo
mayúsculas
Mayúsculas (Símbolo Doble).- Precedidos del signo de mayúsculas, las mayúsculas se forman utilizando las letras del alfabeto. Por ejemplo: Conociendo cómo funciona el sistema braille se dará a conocer una de las más novedosas tecnologías llamada Vista de Toque. Touch Sight es un concepto bastante interesante creado por Chueh Lee, un diseñador de Samsung China. Se trata de una cámara especialmente diseñada para no videntes. Aunque este concepto pueda sonar un poco extraño al principio, casi cruel, la idea es bastante factible. Para hacer posible esta cámara se usaría una pantalla táctil, es decir, una pantalla en los cuales los píxeles que la forman se elevan y se hunden para formar la imagen en bajorrelieve. Además de su pantalla única, Touch Sight incluiría otras características especialmente adaptadas para facilitar su uso a los no videntes. Una sería su sencillez de uso, con pocos botones grandes capaces de hacer todo el trabajo. Además, al tomar cada foto, además de la imagen, la cámara capturaría 3 segundos de audio. Esto les permitiría a los usuarios reconocer rápidamente las fotos y navegar entre ellas sin necesidad de verlas. Las cámaras podrían pasar su contenido a un ordenador y pasárselo unas a otras por Internet. Según el diseñador, que estuvo haciendo estudios en un centro para ciegos en Israel, son muy buenos en fotografía, a diferencia de lo que se podría esperar. Esto se debe a que usan sus otros sentidos para calcular distancia e iluminación de una manera bastante precisa. Esperamos que esta cámara se desarrolle y les permita a los no videntes entretenerse con la fotografía como todos nosotros. Aunque técnicamente no usa braille, sino que más bien un sistema de pixeles en relieve, este concepto de cámara desarrollado por el diseñador Chueh Lee de Samsung China, usa una idea similar al del sistema de escritura para ciegos para lograr su cometido. Como para los no videntes una pantalla LCD es completamente inútil, en la Touch Sight su lugar es ocupado por una superficie flexible llena de pequeños puntos. Al encuadrar una escena, estos puntos forman una imagen en relieve, la cual le permite al fotógrafo sentir con su frente lo que desea capturar. CÓMO UTILIZARLA Chueh descubrió en su investigación que la posición óptima para la cámara, era sujetarla contra la frente, como si se tratara de un tercer ojo. El hallazgo lo realizó al analizar a un instructor de fotografía en el Beit Ha’iver (Centro para el Ciego) en Herzliya, Israel. El profesor de una clase de fotografía para no videntes enseñaba que al poner la cámara en la frente, se podía estabilizar el objetivo de la máquina. Además descubrió que, como los ciegos agudizan sus otros sentidos, no tenían mayor inconveniente para estimar distancias, utilizando el oído o determinar fuentes de luz, a través del calor, con lo cual crean una imagen mental de su entorno y que la Touch Sight es capaz de captar a través de sus relieves. Actualmente Touch Sight no está a la venta por efectos de prueba se espera su próximo lanzamiento mundial dentro de unos meses, y de la cual se espera un gran impacto por lo que significa una oportunidad para las personas no videntes.
2 MICROPROCESADORES MULTINÚCLEOS La fuerte competencia en el mundo de los procesadores, especialmente entre Intel y AMD, ha producido que la tecnología actual de fabricación de procesadores esta llegando a sus límites. Cada vez la miniaturización de los componentes del procesador es más difícil (el límite de construcción del silicio ronda los 15-20nm, donde el silicio empieza a ceder por falta de consistencia, ya se ha llegado a los 45nm), el problema de la generación de calor a aumentado, produciendo que sea más difícil aumentar la frecuencia principal del procesador. Antecedentes de los procesadores multinúcleo: Los procesadores multinúcleo se basaron en los sistemas distribuidos, la computación paralela, y las tecnologías como el Hyperthreading; que mostraban como dividir el trabajo entre varias unidades de ejecución. Procesamiento en Paralelo El procesamiento en paralelo es la división de una aplicación en varias partes para que sean ejecutadas a la vez por diferentes unidades de ejecución. Sistemas distribuidos: Aplicaciones cliente – servidr HyperThreading Esta tecnología fue creada por Intel, para los procesadores Pentium 4 más avanzados. El Hyperthreading hace que el procesador funcione como si fuera dos procesadores. Esto fue hecho para que tenga la posibilidad de trabajar de forma multihilo (multithread) real, es decir pueda ejecutar muchos hilos simultáneamente. El primer procesador multinúcleo en el mercado fue el IBM Power 4 en el año 2000. Una alternativa a los procesadores multinúcleo son los sistemas multiprocesadores, que consisten en una placa madre que podía soportar desde 2 a más procesadores. El rendimiento es bastante bueno, pero también es bastante caro. Los procesadores multinúcleo son un procesador que contiene dentro de su empaque a varios núcleos o "cerebros”, un procesador multinúcleo puede repartir los procesos entre sus varios cerebros para su posterior ejecución; por eso las aplicaciones que sacan más provecho de estos procesadores multinúcleo son aquellas que pueden generar muchos hilos de ejecución (thread) como las aplicaciones de audio/video, cálculo científico, juegos, tratamiento de gráficos en 3D, etc Las aplicaciones que no se dividen en hilos de ejecución, no aprovechan por completo estos procesadores. Pero estos procesadores pueden ejecutar varias de estas aplicaciones al mismo tiempo. Los Pentium D están conformados por dos procesadores Pentium 4 Prescott sin Hyperthreading. Luego Intel sacó el Pentium Extreme Edition (No confundir con el Pentium 4 Extreme Edition) que era un procesador que tenía los procesadores P4 Prescott, con la tecnología Hyperthreading, lo que hacia que el software viera( simulara) cuatro procesadores. Contaban con arquitectura Netbust que proviene de los procesadores de la rama de los Pentium 4. El procesador que contiene dos núcleos Prescott se llama Smithfield con Velocidad desde 3.20GHz Se fabricaron luego otros procesadores de doble núcleo Pentium D llamados Presler, con tecnología de fabricación mas pequeños y van hasta 3.73Ghz. Intel Core Duo es un microprocesador lanzado en enero del 2006 por Intel con dos núcleos de ejecución, optimizado para las aplicaciones de subprocesos múltiples y para multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que puede descargar música o analizar su PC con su antivirus en segundo plano, por ejemplo. Un modelo anterior a Core 2 Duo y posterior a los Pentium D es el 'Dual Core Inside' que es un Core Duo pero le fue puesto ese nombre (Dual Core inside). Se diferencia de los Core 2 Duo por que su caché es de sólo 1 mb con un bus frontal de 800 Mhz, mayor al Core Duo . Velocidad va hasta 2.33Ghz(pionero en arquitectura core) Intel Core Duo es el primer microprocesador de Intel usado en las computadoras Apple Macintosh. Gasto de energía va desde 9.0w hasta 31w lo cual es relativamente poco. Implementa un nuevo juego de instrucciones para multimedia (SSE3) y mejoras para las SSE y SSE2. Existe también una versión con sólo un nucleo denominada Core Solo. Core2 Duo: Lanzada en julio del 2006 esta familia de procesadores de Intel esta basado en la microarquitectura Core, que reemplaza a la antigua microarquitectura Netburst. La arquitectura Core proviene de la arquitectura que produjo al Pentium M (utilizado por los Intel Centrino), que destaca por el gran rendimiento que obtiene de la poca energía que gasta. El Pentium M además proviene del Pentium III, y este del Pentium Pro (Los Pentium 4 son una
rama genealógica aparte). Existen 3 subfamilias dentro de los Core2 Duo: Meron(Centrino), Conroe para equipos de escritorio y WoodCrest para servidores. Los Core2 Duo corren a frecuencias más bajas que los Pentium 4; pero ofrecen un excelente rendimiento por su arquitectura mas eficiente y su particular facilidad para aplicar overclok.(comparando los 3.2Ghz del Core2 Duo con los 3.8 de un Pentium 4). Una característica de estos procesadores es la “macrofusion” que permite el procesamiento y carga de pares de instrucciones como si fueran una sola. Una diferencia es la forma como trabajan sus núcleos es que: en el dual core sus núcleos trabajan de manera alterna, mientras que en el core 2 dúo sus núcleos trabajan de manera simultánea dando un mayor rendimiento. Intel Pentium Dual Core: fue Introducido a principios del 2007 fue diseñado para trabajar en entornos moviles (Laptops) y en equipos de escritorio (Desktops) , permitiendo la ejecución de aplicaciones múltiples, a un bajo costo, un bajo consumo energético y sin sacrificar el desempeño de la computadora. Este procesador es un Core 2 Duo, pero en su lanzamiento se le puso ese nombre (Pentium Dual Core) Los procesadores Pentium Dual Core se pueden considerar procesadores de gama baja (y menor rendimiento: velocidades hasta 2.0 Ghz) basados en la arquitectura de Core 2 ademas tienen un caché reducido comparado con los core2 Duo. Intel Celeron Dual-Core: Es un procesador de la familia Dual –Core introducido en enero de 2008, cuenta con características similares a los Pentium Dual core y Core2 Duo, aunque con un precio accesible. El Athlon 64 X2: El Athlon 64 tuvo gran éxito, por lo que fue tomado como base para la construcción de su procesador de doble núcleo Athlon 64 X2. Bus HyperTransport de 2000 Mhz, esta tecnología HyperTransport: proporciona comunicacion de E/S de alta velocidad. Soporte de memoria DDR2 a partir de los modelos AM2 y conjunto de instrucciones SSE3. AMD Turion 64 X2: El procesador AMD Turion 64 X2 es la versión de doble núcleo del Turion y por tanto la versión de bajo consumo para portátil del AMD Athlon 64 X2 y constituye la respuesta comercial de AMD a la plataforma Centrino Core Duo de Intel. Fue la primera CPU para portátiles en combinar doble núcleo y 64 bits. Bus de HyperTransport de 800 – 1600 Mhz. Menos pines que el Turion 64 por eso es físicamente mas pequeño. Al igual que en los Turion y a diferencia de la plataforma Centrino, AMD favorece la utilización de chips de terceros para chipset (NVIDIA nForce Go 4x0, ATI Radeon Xpress 1100) o WiFi. Intel Core 2 Quad o Intel Quad Core: Este procesador se desarrollo al incluir 2 núcleos Conroe bajo un mismo empaque y comunicarlos mediante el Bus del Sistema, para así totalizar 4 núcleos reales. Los 2 modelos que se desarrollaron donde se incluyeron los núcleos conroe y sus caracteristiczas son las siguientes: Núcleo Kentsfield: 65nm, 3.0Ghz, 1333Mhz y 8MB L2. Núcleo Yorkfield: 45nm, 3.2Ghz, 1600 Mhz y 12MB L2. Con la introducción del núcleo Penryn, Intel tiene planeado introducir un modelo Quad Core para el mercado movil en conjunto a la plataforma móvil Centrino 2. Xeon Dual Core(servidores) con tecnología de doble núcleo. Intel afirma que este procesador brinda un 80% más de rendimiento por vatio y 60% más rápido que la competencia. Este procesador es altamente preferido por los jugadores de videojuegos de computadoras. Intel fue altamente criticado por esto. Este procesador sustituyó al veterano y caluroso PowerPC en las estaciones de trabajo MacPro y los servidores XServe de Apple. El AMD Quad Core: es un microprocesador con tecnología de cuatro núcleos. Esta disponible en las siguientes versiones: Barcelona: 1.7 -2.0 Ghz, para servidores. Phenom: Versión de 4 núcleos para equipos de escritorio y pretende ser la competencia de los Core 2 Duo y de los Quad Cores. Phenom(series FX), Phenom de cuádruple núcleo (series 9)y Phenom de triple núcleo (series 7). Esta familia también esta relacionada con los procesadores Athlon de doble núcleo (series 6).
AMD Quad FX: AMD saca al mercado los procesadores de Plataforma AMD Quad FX con Arquitectura de Conexión Directa de Doble Socket. Cuenta con 3 enlaces de tecnología HyperTransport (buses). AMD K10: generación reciente de los microprocesadores AMDx86.(tercera generación de Opteron) salieron meses después de que AMD presentara sus microprocesadores Phenom. Soporta 3 – 4 Cores. Otros procesadores Microprocesador Cell: La PlayStation 3 utiliza microprocesador Cell diseñado por IBM como su CPU, de los 8 "Synergistic Processing Elements” (a menudo abreviado SPE) 7 son utilizados en la consola. La octava SPE se deshabilitó para reducir costes. Sólo seis de las siete SPEs son accesibles a los desarrolladores, una está reservada para el sistema operativo. El PPE es el núcleo principal, este se encarga de coordinar el trabajo de todos los demás núcleos (SPEs), la velocidad a la que llega es de 4.8Ghz Actualmente Intel y AMD están ofreciendo sus procesadores de 4 núcleos,. En los siguiente años saldrán sus procesadores 8 núcleos , etc. Intel prevé llegar a construir un procesador de 32 núcleos para el 2010. IBM esta desarrollando el procesador Kilocore, un procesador que tiene un núcleo principal PowerPC que maneja a 1024 núcleos auxiliares pequeños de 8 bits. IBM ha fabricado, en experimentos, chips con la tecnología SiGe (tecnología que añade al silicio, mediante procesos nanotecnológicos, capas de germanio, para mejorar sus propiedades electrónicas) que pueden alcanzar 500GHz con el cero absoluto, previendo que pueden llegar a 350 Ghz a temperatura ambiente. Procesador de silicio híbrido láser: detecta, enruta y modula la luz, pero no la produce está en fase de prueba.
3 RESUMEN DE ROBOTS AGRICULTORES La Robótica es una tecnología multidisciplinar, ya que hace uso de los recursos que le proporcionan otras ciencias, ya que en el proceso de diseño y construcción de un robot intervienen muchos campos pertenecientes a otras ramas de la ciencia (Mecánica, Electrónica, Informática, Matemática). Los robots comienzan a fabricarse para tareas muy específicas después de la Segunda Guerra Mundial. Como por ejemplo los que se necesitaban en las investigaciones espaciales (Como el Surveyor que aterriza en la Luna, en 1966, o el Viking, que aterriza en Marte diez años después) para aquellas funciones en las que se exigían ciertas destrezas para resolver situaciones no completamente definidas, o las que se requerían para trabajar en ambientes altamente nocivos para la vida humana como las centrales nucleares, en condiciones térmicas no soportable o ciertos ambientes químicos o biológicos de alta toxicidad. CLASIFICACION DE LOS ROBOTS Generaciones • • • • •
Robots Robots Robots Robots Robots
Play-back controlados por sensores controlados por visión controlados adaptablemente con inteligencia artificial
Nivel de Inteligencia • • • • • •
Dispositivos de manejo manual Robots de secuencia arreglada Robots de secuencia variable Robots regeneradores Robots de control numérico Robots inteligentes
Los programas en el controlador del robot pueden ser agrupados de acuerdo a • •
nivel de control nivel del lenguaje de programación
DIVISIONES DE LA ROBOTICA Según el desarrollo histórico comentado, los ayudantes mecánicos del hombre se pueden dividir en los siguientes dos grupos: • •
Tradicionales: centradas básicamente en la industria manufacturera Innovadores: cuya mayoría está centrada en el sector servicios
Industrial: su mayor parte es asistida por ordenador, para así poder reprogramarse cuando se desee cambiar la función de dicho robot Servicios: son aquellos que realizan servicios en beneficio de los humanos o para el mantenimiento de infraestructuras y equipos, excluidas las operaciones de fabricación Militar: proporciona un aliado importante puesto que puede añadir funciones de vigilancia o combate sin representar un coste de vidas humano APLICACIONES Aplicaciones industriales • • •
Limpieza industrial Agricultura Transporte de mercancías
Aplicaciones de Innovación y Servicio • • •
Medicina Domésticos y de oficina Ocio y de entretenimiento
PARTES DE UN ROBOT Los componentes de los robots, desde un punto de vista general, y desde un punto de vista industrial. Como todo dispositivo funcional, los robots tienen una estructura formada por diferentes sistemas o subsistemas y componentes. Si observamos la forma y el funcionamiento de los diferentes tipos de robots podemos deducir que todos tienen algo en común: • • • • • • •
La estructura o chasis Las fuentes de movimiento Los medios de locomoción Mecanismos especiales para sostener herramientas o piezas La fuente de alimentación Los sensores Los circuitos de control son el "cerebro" del robot
En los sistemas automáticos de manipulación de piezas u objetos podemos distinguir tres partes estructurales muy bien definidas. •
La primera es la máquina propiamente dicha, o sea todo el sistema mecánico y los motores o actuadores y el sistema de agarre o sujeción de los objetos.
•
Los sensores de fuerza, visión y sonido son detectores necesarios para que la máquina sepa exactamente el estado de todas las variables que precisa para una correcta actuación.
•
El sistema de control y el lenguaje de programación forman el sistema de toma automática de decisiones, que incluye la planificación, el control de los movimientos y la interpretación de los datos que aportan los sensores.
ROBOTS AGRICULTORES La robótica agrícola es la proliferación lógica de la tecnología de la automatización aplicada a biosistemas tales como la agricultura, la silvicultura, las industrias pesqueras y otras afines. Estos robots pueden detectar plantas enfermas, alertar a otros robots de la existencia de una plaga y reunirlos a todos para combatirla en equipo con ayuda de satélites. Nuevas generaciones de estos robots podrán sembrar y fumigar.
EJEMPLOS DE ROBOTS AGRICULTORES Tractor Autónomo La idea de un tractor autónomo surgió debido al peligro asociado a la fumigación de los cultivos al que se exponen los agricultores. Además, si dicho tractor fuese capaz de desenvolverse en la noche, momento el en cual se incrementa la actividad de los bichos e insectos, se reduciría la cantidad de productos químicos fumigados produciendo el mismo efecto. Cosechadora Autónoma La siguiente cosechadora basa su posicionamiento y navegación en un sistema GPS diferencial basado en la técnica teach/playback (enseñanza/repetición). El GPS diferencial se basa en dos receptores, uno de ellos es estacionario, mientras el otro deambula realizando mediciones de posicionamiento. La clave reside en el receptor estacionario, enlaza la información proveniente del satélite con una referencia local.
Lawnbott lb3500: robot que corta el cesped automaticamente El Lawnbott LB3500 (LawnBott Robotic Lawn Mower) es impresionante; es un robot que corta césped. Recolector de champiñones Un recolector de champiñones que dispone de una cámara que ayuda a selecciona los mejores champiñones Máquina que esquila a la ovejas La trayectoria del cortador sobre el cuerpo de las ovejas se planea con un modelo geométrico de la oveja. Para compensar el tamaño entre la oveja real y el modelo, se tiene un conjunto de sensores que registran la información de la respiración del animal como de su mismo tamaño, ésta es mandada a una computadora que realiza las compensaciones necesarias y modifica la trayectoria del cortador en tiempo real. Robot recolector de fresas
Está equipado con una cámara de colores sensibles que no solo puede identificar las bayas en el follaje, sino que también detecta que tan maduras están las fresas y después el brazo con delicadeza tijeretea la baya, colocándola sobre una bandeja. Robot aurora La agricultura intensiva bajo plástico genera problemas de salud laboral muy importantes. Se pretenden sustituir los trabajos dentro de invernadero que implican riesgo para la salud, para ello se ha diseñado un robot móvil autónomo que realiza las funciones que normalmente llevan a cabo los agricultores. Rofor El objetivo del proyecto es el diseño, desarrollo e implantación del sistema de control de una máquina procesadora forestal Se ha diseñado e implantado un sistema de control distribuido con elementos en la cabeza procesadora y en la cabina, que se comunican mediante radio-modem. La cosecha de naranja La compañía Vision Robotics, con sede en San Diego, California, está trabajando en dos tipos de robots agrícolas para la recolección de la naranja que utilizan tecnología de imagen digital. "El primer tipo, llamado 'Scout', escanea los árboles para localizar las naranjas, contarlas y averiguar su tamaño exacto. El segundo robot, llamado "recolector" y provisto de varios brazos mecánicos, procesa la información enviada por el "Scout" y retira las naranjas sin dañarlas. El sistema de visión se utilizó por primera vez para explorar e identificar las naranjas dentro de un escaneo de un bosquecillo, este se encuentra al final de multi-eje donde se usan cámaras estereoscópicas para crear una imagen virtual 3D de todo el árbol de naranja. Las posiciones y tamaños de las naranjas se almacenan y se aprueban en la recolección. Recolector de espinacas Ramsay Highlander se enorgullece de presentar el Mini BL, su más reciente recolector de espinacas. El BL Mini es duradero, asequible para el servicio y compacto para el transporte. La construcción de acero inoxidable mediante máquina de larga vida y mejor seguridad de los productos. Reconfigura la máquina para su transporte a un esbelto 102 pulg. de ancho, por lo que no se requieren permisos para el transporte. Recolector de espinacas Ramsay Highlander se enorgullece de presentar el Mini BL, su más reciente recolector de espinacas. El BL Mini es duradero, asequible para el servicio y compacto para el transporte. La construcción de acero inoxidable mediante máquina de larga vida y mejor seguridad de los productos. Reconfigura la máquina para su transporte a un esbelto 102 pulg. de ancho, por lo que no se requieren permisos para el transporte. Headraiser, Colector de cosecha romana El Headraiser es una cosechadora mecánica. Diseñado para la cosecha romana, hojas verdes. Esta máquina reduce sustancialmente su trabajo y manipulación de productos. El Headraiser realiza mecánicamente los cortes y, a continuación, ayuda a eliminar la basura las hojas antes de llegar a
la clasificación y al cinturón de embalaje. La parte trasera de la máquina se puede configurar para bolsas o recipientes para satisfacer sus necesidades. Recolector de manzanas Se utilizó por primera vez para explorar e identificar las manzanas en un huerto. Cámaras colocadas al final del largo escaneo se usaron vectores de cámaras estereoscópicas para crear una imagen virtual 3D de todo el manzano. Podadora de uvas Al final de cada temporada, los trabajadores deben salir en un viñedo y recortar meticulosamente todos y cada uno de las vides en un ángulo preciso y el lugar a fin de preparar a las viñas para que crezcan y sean de las mejores uvas del año siguiente
Robots ordeñan Con ayuda de robots y un poco de entrenamiento, 150 vacas de la granja de H.E. Heindel & Sons prácticamente se ordeñan solas. Uno de siete establecimientos de todo el país que experimentan con los sistemas de robot, Heindel & Sons ha entrenado a la mayoría de sus vacas para que se acerquen a la ordeñadora y pasen unos minutos comiendo cereal mientras las partes móviles del robot se ocupan de la ubre.
4 SPEEDO LZR RACER: TRAJE DE NADO CON TECNOLOGÍA DE LA NASA Introducción
Analizada desde la actualidad, parecería ridícula la época en que los nadadores se rasuraban completamente, y hasta se untaban crema para bebés con el objetivo de disminuir la resistencia de sus cuerpos en el agua. Sin dudas, la historia de la natación ha cambiado. Y como en otras disciplinas deportivas, la evolución pasó imprescindiblemente por su vínculo con las nuevas tecnologías, que cargan cada vez más con la responsabilidad de establecer récords y asegurar victorias. Como punto de partida de esta irrupción tecnológica pudieran tomarse los pasados Juegos Olímpicos de Atenas, cuando la compañía Speedo, líder mundial en indumentaria para deportes acuáticos, «lanzó» al mercado el traje FastSkin FS II, que pretendía imitar en su diseño —tomando como referencia estudios biológicos y mecánicos— la estructura de la piel de los tiburones. El éxito logrado fue una motivación para los investigadores de la empresa, que en marzo del pasado año introdujo el FastSkin FS PRO, un modelo mejorado a partir de la nueva joya salida de sus laboratorios: el tejido LZR Pulse. Aquel descubrimiento aportaba ligereza, repelencia al agua, rápido secado y una mayor compresión, algo que fue muy bien aprovechado por los atletas para quebrar la impresionante cifra de 21 récords mundiales en apenas un año. Pero pocos imaginaron lo que vendría después, hasta que a mediados del pasado febrero, durante una conferencia de prensa con motivo de su aniversario 80, Speedo utilizó al multilaureado nadador estadounidense Michael Phelps como plataforma para la presentación del FastSkin LZR Racer, que en menos de un mes ha sido protagonista de nada menos que ¡19 nuevas plusmarcas universales! Para algunos puede ser un hito tecnológico, otros lo consideran tan sólo una elaborada campaña publicitaria, lo cierto es que el bañador con tecnología espacial ha sacudido el mundo de la natación y de los récords mundiales. En los últimos meses, luego de la presentación del traje y del rompimiento de 19 plusmarcas en las pruebas en Manchester, incluidos los Juegos Olímpicos de Beijing, un buen número de récords mundiales han sido batidos por nadadores que llevaban el traje de alta tecnología LZR Racer, que según Speedo, puede reducir hasta un dos por ciento los tiempos de los deportistas. Sin embargo, el bañador, desarrollado con la ayuda de la NASA, ha llevado a la natación a aguas inciertas, con los competidores cerrando jugosos contratos para usarlos y disputas en torno a la legalidad de los materiales empleados. Speedo sostiene que el LZR ayuda a la aerodinámica, reduce la vibración de la piel y la oscilación de los músculos, pero muchos críticos afirman que utilizar el bañador es equivalente a un “dopaje tecnológico” porque confiere cierta ventaja sobre sus adversarios y que nunca debería haberse aprobado. Seguiremos abordando estas y otras características en la siguiente sección.
¿Qué es el LZR RACER?
Ahora para ser un nadador de clase internacional no alcanza con entrenar duro, para pulir centésimas de segundo la indumentaria también es importante. Conscientes de ello, Speedo ha lanzado una nueva línea con costuras realizadas con ultrasonido, lo que reduce la fricción con el agua El traje de nado LZR RACER es el resultado de 3 años de investigación y desarrollo de Aqualab, el Centro de Investigación Global de Speedo. Aqualab trabajó con un número de socios globales incluyendo la NASA, ANSYS, la Universidad de Otago en Nueva Zelanda, y el Instituto Australiano del Deporte. Speedo presentó sus trajes de natación de cara a la competencia de Beijing donde fueron todo un éxito: la línea LZR Racer, pronunciado como “laser raser o corredor láser”. De acuerdo a lo que Michael Phelps pudo comentar en la conferencia de prensa al usarlos en la piscina se sentía como un cohete expulsado desde el trampolín de arranque. Como su fabricante lo indica, simplemente es el traje de nado con tecnología de la NASA más rápido del mundo. Los LZR Racer están diseñados con solo 3 piezas, en lugar de las 30 actuales, fabricadas con nylon del groso de un papel, y que están unidas por ultrasonido en lugar de costuras. Con este método de fabricación Speedo asegura haber reducido el “arrastre pasivo” que es como se conoce a la fricción del nadador con el agua, en un 10%. Suficiente para ayudar a batir nuevos records en las competencias de natación, de acuerdo a Phelps, el gran candidato para quedarse con muchas de las medallas en las pruebas de velocidad. Durante la presentación, Phelps estuvo acompañado por seis nadadores que también integran el equipo olímpico norteamericano: Katie Hoff, Amanda Beard, Natalie Coughlin, Kate Ziegler, Dara Torres y Ryan Lochte. Y justamente Torres, la nadadora más veloz de EEUU, ha admitido que se ven un tanto ridículos con esos trajes, pero afirmó que eso no importa ya que están en una piscina para nadar rápido, no para verse bien.
Pruebas y Tecnología Aplicada
Durante casi dos años, Michael Phelps y su preparador Bob Bowman cooperaron con Speedo para desarrollar el nuevo traje. Los investigadores de AQUALAB, el departamento de investigación y desarrollo para competencias de la prestigiosa empresa, establecieron características estándares a través del estudio del cuerpo de cerca de 400 nadadores de élite, y con el uso del software CFD —un sofisticado modelo computacional para el análisis del flujo de fluidos— identificaron las áreas de mayor fricción con el agua en la anatomía de los nadadores en movimiento. Esa información fue utilizada por los diseñadores para colocar el innovador tejido, desarrollado con ayuda de expertos de la Agencia Aeroespacial estadounidense (NASA) y de otras instituciones, en los puntos señalados para conseguir un traje con un diez por ciento menos de resistencia al agua que el FastSkin FS II, y un cinco por cientomenos con respecto a su predecesor, según las consideraciones del fabricante. Los especialistas opinan que, por cubrir en gran medida los músculos del torso y el abdomen —donde ubican el punto de flotación—, las nuevas fibras ayudan a los nadadores a mantener la mejor postura dentro del agua, y conservar durante el nado una posición hidrodinámica para el cuerpo. El nuevo bañador, cuyas partes están unidas por métodos de ultrasonido para eliminar las costuras, aporta además una mayor compresión al cuerpo que reduce ostensiblemente la oscilación de los músculos y la vibración de la piel en el agua.El estudio computacional de los fluidos dinámicos usado por la alta tecnología de la industria aeroespacial y en deportes como la F1 identifica el flujo del agua en las partes más calientes del cuerpo humano alrededor del cuerpo del nadador virtual. Esto hace que
Speedo pueda entender cómo y dónde eliminar la fricción con el agua más efectivamente y mantener mejor sujetas o “apretadas” esas partes del cuerpo humano. No solo se hizo la prueba del CFD, se realizaron algunas más como las siguientes: Pruebas de arrastre de superficie o de fricción superficial Speedo ha utilizado tecnología de la era del espacio en su investigación y pruebas en sus esfuerzos para diseñar el traje de baño más rápido que jamás se han creado a través de consultas con la NASA. La NASA cuenta con algunos de los más precisos en los túneles de viento del mundo, que utiliza para probar la superficie de fricción de los materiales - como la que actúe en un avión o una nave espacial vuelva a entrar en la atmósfera terrestre a gran velocidad. Speedo probó la superficie de arrastre de más de 60 tipos de tejido (actuales y desarrollados) para ver cuáles ofrecen los mejores resultados en términos de ultra rápida velocidad a través de la piel de fricción menor resistencia. Pruebas de agua saetín Se realizaron pruebas en maniquíes de nadadores con saetines de agua y se llevó a cabo por uno de los principales biomecánicos, David Pease, en la Universidad de Otago en Nueva Zelanda. La prueba consistía en someter al maniquí a una gran presión de agua que era arrojada desde el saetín y sirve para ver cómo se comporta con la presión que ejerce el agua sobre el cuerpo y cómo puede ayudar a mantener la mejor postura para el nado a pesar de la fuerte presión, movimiento y oleaje. Las de saetín de agua se utilizaron para evaluar los efectos de arrastre pasivo en una variedad de trajes y arrastre total se determinó en toda la gama de velocidades se encuentra en la natación de élite competitiva. Escaneo del cuerpo El Aqualab de Speedo ha llevado a cabo un programa de escaneo en 3D de ejercicios de unos 400 atletas de élite para descubrir más sobre la forma de sus cuerpos. Esta información se ha utilizado para desarrollar el modelo más eficiente y para la construcción Speedo LZR RACER. Gracias a este estudio, se logró determinar también la forma de las costuras ultrasónicas, el neopren con lo que está construido el traje y las partes del cuerpo en donde se debe eliminar más la fricción del cuerpo con el agua.
Datos generales y técnicos
Detalles del Traje: • Estará disponible para su entrega la última semana de octubre de 2008. • Es el traje de baño más rápido del mundo - resultado de la mayoría de la investigación y desarrollo extensa del funcionamiento en la historia del traje de baño. • Primer traje completamente cerrado del mundo. Las costuras consolidadas integrales soldadas con autógeno ultrasónico crean la silueta del perfil y reducen la fricción de fricción de piel. • Tres cortes de patrón único del pedazo 3D para la forma del cuerpo. • Dirigido para crear un sistema hidráulico de compresión. El estabilizador interno de la base apoya y detiene al nadador que mantiene una buena posición de cuerpo en el agua. Las ayudas en la realización de la aerodinamizaron dan un funcionamiento más rápido. • Hecho de propio material del LZR Pulse de Speedo - desarrollado especialmente para el juego de Fastskin FS-PRO de Speedo. • La tela tejida más ligera del mundo. Altamente compresivo, impermeable, resistente al cloro, y secado rápido.
• Los
paneles de las características LZR, un corte ultrafino de la precisión de la membrana por el laser en los paneles entonces encajados en la base de la tela en los puntos estratégicos para crear la “compresión hidráulica.” Forma aerodinámica y reducción de fricción óptimas. • El cierre relámpago ultrabajo del perfil enlazó en juego y ocultado adentro para mantener forma superficial lisa Precio $550.00. Disponible para el público a partir del mes de octubre de 2008.
5 RECONOCIMIENTO FACIAL
INTRODUCCION En la actualidad las personas como entidades necesitan métodos cada vez mas únicos para su seguridad por que al ir evolucionando la tecnología también con lleva muchos peligros sobre todo los peligros que ahora Internet tiene gracias a su amplia red mundial y a las técnicas que se han encontrado para manejar esta tecnología. Por eso el reconocimiento facial se vuelve una tecnología muy única para lograr este cometido. BIOMETRICA La biometría es el estudio de métodos automáticos para el reconocimiento único de humanos basados en uno o más rasgos conductuales o físicos intrínsecos. El término se deriva de las palabras griegas "bios" de vida y "metron" de medida. La "biometría informática" es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para “verificar” identidades o para “identificar” individuos. En las tecnologías de la información, la autentificación biométrica se refiere a las tecnologías para medir y analizar las características físicas y del comportamiento humanas con propósito de autentificación. RECONOCIMIENTO FACIAL Un sistema de reconocimiento facial es una aplicación dirigida por computadora para identificar automáticamente a una persona en una imagen digital, mediante la comparación de determinadas características faciales a partir de una imagen digital o un fotograma de una fuente de vídeo. La tecnología de reconocimiento de caras se basa en el análisis de ciertas características faciales para reconocer a un individuo dentro de una base de datos previamente confeccionada. Existen varios métodos de reconocimiento basados en la caracterización de ciertos rasgos que no cambian en una cara: La sección alta de las cavidades oculares. La zona o sea alrededor de las mejillas. Laterales de la boca. METODOS PARA LLEVAR ACABO EL RECONOCIMIENTO FACIAL. El proceso de reconocimiento facial consta de las fases normales de una aplicación de visión: Captura de imagen. Extraer características matemáticas de la misma. Realizar una comparación con patrones de referencia. El reconocimiento de caras como método de autenticar a una persona no requiere acción alguna por parte del usuario. Incluso las cámaras que se emplean tienen generalmente la posibilidad de tracking con el movimiento de la cara. Los cuatro métodos principales que se emplean para identificación y verificación de usuarios son: Eigenfaces: Tecnología desarrollada por el Instituto Tecnológico de Massachusets que utiliza una escala de grises bidimensional para representar una imagen facial. Es una técnica de representación para reducción de dimensionalidad y generalización. Normaliza y selecciona una
región del rostro en varias imágenes, trata cada sub-imagen del rostro como un vector de intensidad y encuentra momentos de los vectores en una base de datos. análisis de características: Técnica que absorbe más fácilmente cualquier tipo de cambio de aspecto que el individuo presente en su rostro. El análisis por características se deriva del método eigenface y resuelve los problemas de sensibilidad a las deformaciones y cambios en las poses y la luz. Esta técnica considera características individuales en vez de la representación global de la cara. El sistema selecciona una serie de bloques que mejor definen una cara concreta. Estos bloques forman los elementos constructivos de todas las caras posibles. redes neuronales: Realiza un análisis de característica tanto de la cara que inspecciona como de las almacenadas y comprueba si existe una concordancia entre ellas. El siguiente desarrollo en la tecnología de reconocimiento de caras pretendió solucionar los 2 grandes inconvenientes con que se encontraban las implementaciones hasta ese momento: Localizar una cara dentro de un fondo complejo y la variabilidad de las condiciones luminosas. Una imagen puede tener un fondo con diferentes texturas y objetos diversos, más de una cara e incluso todo ello en movimiento. El primer paso es aislar una cara del fondo si aquella existe en la imagen. Esto se consigue con una red neuronal que se especializa en aprender la apariencia de una cara con diferentes estilos de peinados, condiciones de luz, color de la piel, tamaños, orientaciones y posiciones de los rostros. El aprendizaje requiere un número alto de muestras y ejemplos diversos. Las funcionalidades de tracking se implementan ejecutando de forma iterativa el proceso de aislamiento de caras. procesamiento automático de caras. El uso de técnicas biométricas de reconocimiento de caras transforma la identificación de personas en un procedimiento transparente y no intrusivo para el sujeto pasivo. Todas las tecnologías convierten las características faciales en modelos matemáticos que son procesados por ordenador. Se ha evolucionado desde los "eigenface" a la red neuronal, pasando por el análisis local de características. USOS DEL RECONOCIMIENTO FACIAL Sistemas de reconocimiento facial tienen una amplia gama de usos comerciales, como gubernamentales y aplicaciones militares. Algunos ejemplos de estos son cuando el gobierno mexicano hizo uso de sistemas de reconocimiento facial a la altura de sus votantes de su base de datos para verificar la identidad y minimizar el fraude electoral. El sistema también está programado para su uso en los aeropuertos para acelerar la verificación de la identidad y los procesos para aumentar la seguridad. El sistema también se puede utilizar en cajeros automáticos para garantizar que la toma es la retirada de la tarjeta. Existen muchos usos para el reconocimiento facial desde simples organizadores de fotografías hasta control de acceso para personal en una empresa. A continuación se desglosan algunas de las utilidades que más están causando auge en el mundo. Control de acceso Seguridad en computadoras Paginas Web CONCLUSION A pesar de su reciente aparición, el reconocimiento de caras representa un método de autenticación que se impone a pasos agigantados en el mundo de la seguridad. Existen ya instalaciones en aeropuertos, cajeros automáticos, teléfonos celulares, etc.
Existen métodos matemáticos y muy bien realizados para llevar a cabo el reconocimiento facial, pero al pasar el tiempo se van mejorando estas técnicas para que poco a poco las limitaciones de esta tecnología vayan desapareciendo y sea más eficiente y más rápido el uso para las personas. Los costos de esta tecnología aun tienden a ser elevados porque aun muchos de los dispositivos existentes son escasos y siguen siendo objeto de estudio, por ejemplo las computadoras portátiles solo dos marcas (Lenovo y TOSHIBA) reconocida comienzan a implementar esta tecnología.
6 NANOTECNOLOGÍA La nanotecnología es un campo de las ciencias aplicadas dedicados al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Definición La nanotecnología promete mejores beneficios, nuevos y más eficientes para solucionar los problemas ambientales como muchos otros usados en esta humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad. Un nanómetro es la mil millonésima parte de un metro (10^ (-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comporta de manera diferente que en los mismos elementos a mayor escala.
Ensamblaje interdisciplinario La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente. Una posible lista de ciencias involucradas sería la siguiente: Química (Moleculares y computacional); Bioquímica; Física; Electrónica; Informática; Matemáticas. NANOTECNOLOGÍA E INFORMÁTICA [2] Nuevos avances en nanotecnología pone a tiro a las supercomputadoras del mañana. Dentro de unos años, las computadoras serán bastante diferentes de las actuales. Los avances en el campo de la nanotecnología harán que las computadoras dejen de utilizar el silicio como sistema para integrar los transistores que la componen y empiecen a manejarse con lo que se llama mecánica cuántica, lo que hará que utilicen transistores a escala atómica.
Aproximadamente para el año 2010, el tamaño de los transistores o chips llegará a límites de integración con la tecnología actual, y ya no se podrán empaquetar más transistores en un área de silicio, entonces se entrará al nivel atómico o lo que se conoce como mecánica cuántica. Las computadoras convencionales trabajan simbolizando datos como series de unos y ceros –dígitos binarios conocidos como bits. El código binario resultante es conducido a través de transistores, switches que pueden encenderse o prenderse para simbolizar un uno o un cero. Las computadoras cuánticas, sin embargo, utilizan un fenómeno físico conocido como “superposición”, donde objetos de tamaño infinitesimal como electrones o átomos pueden existir en dos o más lugares al mismo tiempo, o girar en direcciones opuestas al mismo tiempo. Esto significa que las computadoras creadas con procesadores superpuestos puedan utilizar bits cuánticos –llamados qubits- que pueden existir en los estados de encendido y apagado simultáneamente. De esta manera, estas computadoras cuánticas pueden calcular cada combinación de encendido y apagado al mismo tiempo, lo que las haría muchísimo más veloces que los actuales procesadores de datos a la hora de resolver ciertos problemas complejos de cálculos matemáticos. La investigación de la computación cuántica está ganando terreno rápidamente en laboratorios de investigación militares, de inteligencia y universidades alrededor del planeta. Entre otros, están involucrados gigantes como AT&T, IBM, Hewlett-Packard, Lucent and Microsoft. En electrónica, miniaturización es sinónimo de éxito. Reducir el tamaño de los circuitos integrados implica una respuesta más rápida y un menor consumo de energía. Y en esta escalada hacia lo extremadamente pequeño, la nanotecnología se convierte en un aliado imprescindible. Otras empresas como IBM o Intel le siguen de cerca. En concreto, en el marco de la First Internacional Nanotechnology Conference celebrada el pasado mes de junio, Intel desvelaba por primera vez públicamente sus planes para el desarrollo de chips de tamaño inferior a 10 nanómetros, combinando el silicio con otras tecnologías que están aún en sus primeras fases de investigación. Tan importante como la velocidad de procesamiento es la capacidad de almacenamiento. Eso lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la NRAM. Se trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos. Sus creadores aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash, convirtiéndose en la memoria universal para teléfonos móviles, reproductores MP3, cámaras digitales y PDAs. Por su parte, investigadores de la Texas A&M University y del Rensselaer Polytechnic Institute han diseñado un tipo memoria flash de nanotubo que tiene una capacidad potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los actuales DVDs.
Computadoras casi invisibles [3] La nanotecnología será un salto importante en la reducción de los componentes, y ya hay avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están desarrollando. El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores
que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales. Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todas las computadoras portátiles utilizan pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos.
NANOTUBOS [4] En química, se denominan nanotubos a estructuras tubulares cuyo diámetro es del orden del nanómetro. Existen nanotubos de muchos materiales, tales como silicio o nitruro de boro pero, generalmente, el término se aplica a los nanotubos de carbono. Los nanotubos de carbono son una forma alotrópica del carbono, como el diamante, el grafito o los fulerenos. Su estructura puede considerarse procedente de una lámina de grafitos enrollados sobre sí misma. Dependiendo del grado de enrollamiento, y la manera como se conforma la lámina original, el resultado puede llevar a nanotubos de distinto diámetro y geometría interna. Estos tubos conformados como si los extremos de un folio se uniesen por sus extremos formando un canuto se denominan nanotubos monocapa. Existen, también, nanotubos cuya estructura se asemeja a la de una serie de tubos concéntricos, incluidos unos dentro de otros, a modo de muñecas matrioskas y, lógicamente, de grosores crecientes desde el centro a la periferia. Estos últimos son los nanotubos multicapa Se conocen derivados en los que el tubo está cerrado por media esfera de fulereno, y otros que no están cerrados.
Propiedades Y Aplicaciones De Los Nanotubos En general las propiedades de los nanotubos dependen principalmente de los siguientes factores: el número de capas concéntricas que posee, la manera en que es enrollado y del diámetro del nanotubo. Propiedades Electrónicas: Transportan bien la corriente eléctrica. característica metálica, semiconductora o también superconductora.
Pueden
actuar
con
Propiedades Mecánicas: Uno de los materiales más “duros” conocidos (Similar a los diamantes) Presenta una altísima “resistencia mecánica”. Presenta una altísima flexibilidad. Propiedades Elásticas: Por su geometría, podría esperarse que los nanotubos sean extremadamente duros en la dirección del eje, pero por el contrario son flexibles a deformaciones perpendiculares al eje. La curvatura causa aumento de la energía: los nanotubos son menos estables que el grafito, y cuanto menor es el diámetro menor es la estabilidad. Para grandes deformaciones radiales, los nanotubos pueden ser inestables (colapso). Esto ocurre principalmente para nanotubos de gran diámetro. Las características mecánicas de los nanotubos son superiores a las fibras de carbono; resistencia a deformaciones parciales, flexibilidad, etc. Las cuales las hacen idóneas para muchas aplicaciones posibles. Propiedades Térmicas: Presenta altísima conductibilidad térmica en la dirección del eje del nanotubo.
Nanotecnología: mejorará nuestra calidad de vida [5] La nanotecnología -la ciencia que permite manipular la materia al nivel del átomo- mejorará nuestra calidad de vida a medio plazo. Según un estudio, su aplicación a la industria, especialmente en la electrónica, los transportes o la sanidad será en la próxima década el motor de la próxima revolución industrial. Neumáticos más resistentes a la abrasión, medios de locomoción propulsados por energías limpias o pruebas diagnósticas hospitalarias que permitirán detectar patologías desde sus comienzos son algunas de estas aplicaciones, que serán visibles antes de 2020. Según el estudio, efectuado por la Fundación OPTI (Observatorio de Prospectiva Tecnológica Industrial), la nanotecnología aplicada al transporte permitirá el uso de vehículos con menor peso, ya que la aleación de materiales empleados para su fabricación serán más ligeros, especialmente en chasis y carrocería. Prevista para 2015, permitirá reducir el peso de automóviles y aviones en un 30%. En la energía y el medio ambiente, los nanomateriales resultan cruciales en la implementación de las pilas de combustible y en el control de la captura y liberación de hidrógeno. En la diagnosis de enfermedades, la nanobiotecnología permitirá detectar patologías como el cáncer y enfermedades cardiovasculares o neurológicas en su estado más inicial. También regulará la toma de medicamentos mediante la administración continuada e inteligente de las dosis. El estudio destaca también la aplicación de esta tecnología en sectores como la construcción, la cerámica, el textil o los envases de alimentos. En el primero de estos campos, los nanoaditivos permitirán cementos con propiedades autolimpiantes, antimicrobianas y descontaminantes y nanomateriales avanzados nos protegerán contra incendios y responderán a estímulos como la temperatura, la humedad o la tensión para ofrecer mayor confort. Los nanosensores controlarán la seguridad y el buen estado de las estructuras. Las cerámicas incorporarán funciones antimicrobianas o efectos térmicos.
antideslizantes,
autolimpiables,
antirrayado,
En el sector textil están previstas fibras más ligeras pero con gran aislamiento térmico, más resistentes al desgaste, a la suciedad, al agua o a las radiaciones ultravioletas. Por último, en el sector del envasado, se conseguirán envases activos que conservarán el producto e informarán al consumidor sobre su estado.
7 ¿QUÉ ES LA INGENIERÍA DE TEJIDOS? La Ingeniería de tejidos, también conocida como medicina regenerativa, es la rama de la bioingeniería que se sirve de la combinación de células, métodos de ingeniería de materiales, bioquímica y fisicoquímica para mejorar o reemplazar funciones biológicas. Mientras la mayoría de definiciones de la ingeniería de tejidos cubre un amplio rango de aplicaciones, en la práctica el término está íntimamente relacionado con las aplicaciones de reparar o reemplazar parcial o totalmente tejidos (por ejemplo hueso, cartílago, válvula cardiaca, vejiga, etc.). A menudo, los tejidos implicados requieren ciertas propiedades mecánicas y estructuras para su propia función. Las especies normalmente implicadas en la ingeniería de tejidos son células vivas, así como sus componentes extracelulares que participan en el desarrollo de dispositivos que permitan y estimulen o favorezcan la reparación o restauración de un órgano o tejido dañado. La idea de utilización de sustitutos de componentes o tejidos biológicos para reparar o reemplazar elementos dañados es tan antigua como la historia misma. La gran mayoría de los andamios desarrollados para aplicaciones en el campo de la Ingeniería de Tejidos está constituida por estructuras elaboradas a partir de materiales poliméricos. La alquimia de la ingeniería de tejidos -término acuñado en 1987 que hace referencia a la manipulación biológica para generar nuevas estructuras vivas- explota el poder de las células madre o stem cells para convertirse en cualquiera de las estirpes celulares que integran nuestro organismo, desde una célula del riñón hasta una neurona. La estrategia consiste en fabricar una especie de andamio de plástico biodegradable y biocompatible con la forma del órgano o tejido deseado y verter en él una sopa de nutrientes con las stem cells del propio paciente. De alguna manera que aún no se ha logrado explicar, las células madre, tanto de adulto como embrionarias, reconocen la forma de la matriz; se comunican con ella siguiendo señales químicas desconocidas y se organizan por sí mismas como hormigas en una colonia para fabricar los tejidos del órgano deseado. Operan como si fueran una cuadrilla de albañiles. Cada año, miles de pacientes esperan el trasplante de un órgano vital, pero no hay donantes suficientes y muchos mueren antes de que llegue. Esta disciplina podría resolver la falta de donaciones. Corazones, riñones y otros órganos fabricados a la carta serían la solución ideal, porque los sustitutos artificiales tienen sus limitaciones: los implantes prostéticos no crecen a la par en los pacientes jóvenes, y los órganos de cadáveres o cerdos humanizados fallan con el tiempo y sentencian al paciente a una vida de fármacos inmunosupresores para combatir el posible rechazo. La ingeniería de tejidos promete soluciones a todo esto. Y de paso, ayuda a entender cómo funcionan las células madre. Los primeros beneficiados con los éxitos de esta ciencia son aquellos que necesitan nueva piel, como los quemados. La piel se fabrica y comercializa desde hace décadas: en EE UU, su venta mueve 56 millones de euros anuales. El otro objetivo de la ingeniería de tejidos es que el órgano en cuestión sea portador de medicamentos. Ya existe un armazón que permite liberar lentamente un agente antitumoral para combatir una forma de cáncer cerebral. Uno de los principales lugares de desarrollo de esta tecnología es el laboratorio de Langer en Massachusetts parece un muestrario de partes del cuerpo para algún experimento poco ortodoxo.
Placas y platos de cristal exhiben trozos de piel. Forman parte de una investigación en colaboración con la NASA para estudiar si la ingravidez afecta al crecimiento y organización de las células. Para empezar, se tiene: Colocar un recipiente con fragmentos de capilares, vasos sanguíneos que crecen sobre un laberinto de formas vasculares en un chip plástico." Se opera a escala microscópica y casi nano para crear redes sanguíneas. Es temprano, pero ya se ha logrado que funcionen bastante bien". El siguiente reto es obtener el grosor que necesitaría un órgano como el hígado o el riñón. "Hay que cultivar varias capas de tejido vascular y colocarlas unas sobre otras. La idea es lograr que la sangre fluya entre ellas, igual que lo haría de verdad. Antes de fabricar un órgano sólido debemos resolver el problema de llevar a su interior oxígeno y sangre constantemente y en cantidades suficientes". No obstante, diseñar polímeros que funcionen bien con células vivas no es tan fácil como parece. Hay que superar numerosos obstáculos. Por un lado, es necesario crear los materiales correctos, altamente biocompatibles y que estimulen el crecimiento y comportamiento de las células. Por otra parte, hay que descubrir cuáles son las condiciones perfectas y el medio de cultivo óptimo para fabricar un tejido dentro de un tubo de ensayo. “Cualquier cambio supone una diferencia enorme". Por ejemplo, es indispensable agitar las células del tejido vascular. Los capilares están conectados al corazón y, por tanto, las células necesitan acostumbrarse a recibir y aguantar la presión arterial. En los ensayos, se conectan a una bomba que hace las veces de corazón. Por su parte, las células de tejido cardíaco han de ser estimuladas eléctricamente para simular las mismas condiciones que se registran en el organismo. Antes de sembrar células sobre un andamio de polímeros es preciso encontrar la matriz perfecta, algo así como idear los cimientos de un edificio"Lo espectacular es que se ha descubierto que con distintos factores de crecimiento, es decir, con diferentes nutrientes y sustancias químicas, podíamos empujar a las células en distintas direcciones". Según la composición de la papilla, una stem cell se convierte, pongamos por caso, en una célula ósea o en una renal. Y no es sólo cuestión de química, sino también de física. "El armazón de polímeros es crucial", ya que "Determina las claves físicas para la orientación de las células y la forma en que estas se extienden. Y los poros del andamio ofrecen espacio para remodelar las estructuras de los tejidos. Si el armazón es demasiado blando, por ejemplo, se colapsará por las fuerzas mecánicas de las células". La ingeniería de tejidos usa fundamentalmente células cultivadas y/o modificadas genéticamente en el laboratorio como material de ingeniería. El objetivo principal en este sentido sería obtener un biopolímero: • • • • •
Biocompatible No presente ningún tipo de reacción biológica adversa. Reabsorbible. Que se degrade de forma paulatina a medida que se forma el nuevo tejido, transfiriendo así las cargas de forma progresiva. Productos de degradación fácilmente eliminables y no-tóxicos.
La creación de tejidos y estructuras biológicas in vitro requiere un considerable conocimiento de la célula para garantizar su supervivencia, crecimiento e incentivar su funcionalidad. Técnicas de elaboración de andamios poliméricos para ingeniería de tejidos:
1) Gel Casting Este método consiste en disolver el polímero en un solvente orgánico como la acetona. La solución polimérica es colocada en un molde hasta alcanzar consistencia de gel. 2) Disolución y colada con liberación de partículas En este método, se incorpora a la solución polimérica una proporción determinada de partículas minerales (cloruro de sodio) u orgánicas (sacarosa). La mezcla es luego colada en un molde donde el solvente se evapora y se procesa. 3) Laminación de membranas Consiste en la utilización de diferentes films porosos generalmente obtenidos a partir de la técnica de disolución y colada con liberación de partículas, y colocados uno sobre otro unidos con la ayuda de la impregnación con cloroformo en la superficie, para obtener estructuras tridimensionales de forma compleja. 4) Separación de fases El polímero se disuelve en un solvente a una temperatura baja. La separación líquido-líquido y luego sólido -líquido es inducida al bajar la temperatura de la solución. 5) Saturación con gas Para esto se utilizan especímenes poliméricos sólidos previamente prensados, los cuales son expuestos a altas presiones de CO2 permitiendo así la saturación del polímero con el gas. 6) Liofilización Esta técnica es similar a la separación de fases, consiste en separar o en la eliminación del agua mediante el secado al vacío y a muy bajas temperaturas las soluciones congeladas del polímero con ácido acético glacial. 7) Unión de fibras Consiste en la elaboración de redes interconectadas mediante la unión de fibras. Para esto se utilizan dos polímeros diferentes. Algunos ejemplos de tecnologías de la ingeniería de tejidos Hígado Bioartificial
Páncreas artificial Vejigas Cartílago La ingeniería de tejidos inyectables Surge como una solución para sustituir a los tradicionales trasplantes de órganos. Se trata de la aplicación de un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos. Se están desarrollando métodos para inyectar en las coyunturas mezclas especialmente concebidas de polímeros, células y estimuladores de crecimientos que se solidifican y crean tejidos sanos.
Su meta esencial consiste en diseñar en laboratorio alternativas al transplante tradicional de órganos y tejidos. En las últimas tres décadas, los investigadores se han dedicado a generar en laboratorio nuevos tejidos sobre grillas o matrices poliméricas. Si bien este procedimiento ha logrado producir pequeñas cantidades de cartílagos y piel, sigue habiendo dificultades para mantener vivas las células, cuando se multiplican en contenedores más grandes. Aun si estos problemas pudieran resolverse, los cirujanos deberían continuar implantando tejidos cultivados en el laboratorio. Pero como bien es cierto aún siguen en fases de prueba. No obstante, la mayoría de pacientes actuales o potenciales necesita implantes limitados y seguramente se beneficiará de tecnologías que estarán disponibles mucho antes.
8 DISPOSITIVOS DE ALMACENAMIENTO EXTERNO 1. Dispositivos de almacenamiento externo Son todos aquellos dispositivos de almacenamiento masivo de información que nos permiten almacenar grandes volúmenes de datos de una manera externa a nuestro ordenador. Entre los dispositivos de almacenamiento externo o memoria secundaria se incluyen las unidades de disco duro y memorias usb. 2. Causas del surgimiento de los dispositivos de almacenamiento externo La gran cantidad de información que se maneja actualmente.
El espacio de almacenamiento en los ordenadores es insuficiente. El riesgo de perder información. La necesidad de las copias de seguridad de la información. La necesidad de transportar la información de un lugar a otro. 3. Las primeras soluciones
Allá por el año 2002, IBM lanzó un curioso dispositivo que planeaba ser el reemplazo definitivo del cada vez más molesto disquete, se trataba de una memoria Flash que podía ser reescrita cientos de miles de veces, con una pequeña capacidad de 8 MB y una cómoda interfaz USB. Asimismo, otros fabricantes presentaron sus discos duros externos, que en verdad no eran más que un gran disco interno con una carcasa especial, un traductor de IDE a USB y una fuente de alimentación. 4. El disco duro El Disco Duro, en los ordenadores o computadoras son unidad de almacenamiento permanente de gran capacidad, en los cuales se pueden guardar todo tipo de información. 5. Tecnología utilizada en la creación de discos duros La tecnología magnética: utilizada en el almacenamiento de datos consiste en la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético.
6. Conceptos necesarios para entender las características específicas de los diferentes dispositivos de almacenamiento Capacidad de almacenamiento (GB): La capacidad se refiere al tamaño o volumen que el dispositivo permite almacenar. Es medido en GB o MB.
La velocidad (MB/s): La velocidad media o sostenida es aquella que puede mantener de forma más o menos constante durante lapsos apreciables de tiempo. Se mide en MB/s. El tiempo (ms): El tiempo medio de acceso se trata del tiempo que por término medio tarda el dispositivo en responder a una petición de información. Se mide en milisegundos (ms). 7. Tipos de discos duros Discos duros internos: Dispositivos de almacenamiento masivo que se encuentran en el interior de nuestro ordenador. Podrían ser de tres tipos principalmente: IDE, SATA y SCSI. Discos duros externos: Dispositivos de almacenamiento masivo externos al ordenador que podemos trasladar de un lugar a otro. Básicamente suelen ser una caja donde se encuentra alojado el HD con un toma de corriente y un interfaz de conexión USB. Según su conexión podemos tener principalmente dos tipos de HD, el IDE o el SATA. 8. Ventajas de los discos duros externos
Eliminación de la fuente externa. Ideales para realizar backups de computadoras. Altísima capacidad de almacenamiento desde 40GB hasta 500GB, los discos convencionales de 3.5 pulgadas tienen capacidades de hasta 1 TB. Mejoramiento en el tamaño actualmente 1.8 y 2.5 pulgadas. Mejoramiento en la movilidad. Tiene una relación capacidad/precio sumamente tentadora. Disponen de un puerto USB 2.0.
9. Desventajas de los Discos Duros Externos
Son de naturaleza mecánica. Al hacerlos mas pequeños su velocidad decae. Les afecta los golpes, la humedad y las altas temperaturas. Les afecta los campos magnéticos. 10. La memoria flash La memoria flash es un dispositivo de almacenamiento masivo externo al ordenador que utiliza la memoria flash para guardar todo tipo de información permitiendo el funcionamiento a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo. 11.Tecnología utilizada en la creación de memorias flash La tecnología flash: La memoria flash es una forma evolucionada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación. Dicho proceso de lectura y escritura se lleva a cavo mediante pulsos magnéticos. 12. Tipos de memorias flash El llavero USB: Un llavero USB (Universal Serial Bus - USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas.
Teóricamente, la memoria flash puede retener los datos durante unos 10 años y escribirse un millón de veces.
Las Tarjetas de Memoria Flash: son utilizadas para su integración como memorias embebidas en equipos informáticos como cámaras digitales, PDAs, teléfonos móviles de última generación o reproductores mp3. Actualmente su capacidad de almacenamiento va desde los 64 MB a 4GB. 13. Formato de las tarjetas de memoria Flash Secure Digital SD: muy utilizadas en los teléfonos celulares y sus variantes SD de 4GB, miniSD, microSD, SDHC de 32GB. Compact Flash CF: el pionero utilizado en las cámaras digitales profesionales y su versión I y II con una capacidad de 64GB. Memory Stick: el formato exclusivo de productos fabricados por Sony y sus variantes Pro, Duo, Pro Duo, Pro-HG con una capacidad máxima de 32GB. XD-Picture: Algunas cámaras de Olympus y Fujifilm siguen usando el formato xD, desarrollado por ambas compañías, que tiene una capacidad actual de 2 GB. Multi Media Card MMC: utilizadas en las cámaras fotográficas y sus variantes Multi media Card Plus y la de tamaño reducido RS-MMC. 14. Ventajas de las memorias flash
Bajo consumo de energía eléctrica. Reducido tamaño hasta 1 cm2. Mayor velocidad de lectura y escritura de hasta 20 MB/s. Son dispositivos de estado sólido. Bajo tiempo de acceso. Son más resistentes a los golpes. 15. Desventajas de las memorias flash
Tamaño máximo de almacenamiento aceptable que va desde 64 MB hasta 16GB. La relación capacidad/precio es un poco elevada. Les afecta la humedad y las altas temperaturas. 16. ¿Qué nos conviene utilizar?
La respuesta puede variar de una persona a otra, y tiene mucho que ver con la cantidad de información que se desea transportar. Si queremos un dispositivo para realizar backups de computadoras completas, en este caso un disco duro viene como anillo al dedo, ya que hoy en día tenemos unidades relativamente pequeñas de 1.8 pulgadas con capacidades de hasta 160 GB, y su desempeño es bastante aceptable. En caso contrario, si lo que deseamos es tener una memoria portátil que sea tan pequeña como un llavero y que posea una gran velocidad (tanto de escritura como de lectura), seguramente una memoria Flash de 4 u 8 GB será más conveniente debido a su bajo precio, buen desempeño y capacidad aceptable.
9 EL ROBOT DA VINCI UN ASISTENTE QUIRÚRGICO INTRODUCCION La informática se ha convertido en parte fundamental de la tarea clínica diaria y habitual. Actualmente siguen desarrollándose las nuevas disciplinas (p.ej. telecirugía, cirugía asistida por ordenador y por la robótica, cirugía guiada por imágenes, nanotecnología, teleconsultas médicas, teleseguimiento postoperatorio, etc.,) y no podemos menos que comenzar a preguntarnos cuáles serán las indicaciones futuras de la medicina asistida informáticamente. Lo que es cierto es que la revolución digital en medicina nos conduce al desarrollo de nuevas modalidades de tratamiento operatorio, simulaciones de cirugía y mejor enseñanza quirúrgica. En la década de 1990, la cirugía laparoscópica modificó totalmente el estilo de las intervenciones quirúrgicas. A medida que avance el siglo XXI, esta modalidad está en demanda por parte de los pacientes que desean cirugía mínimamente invasiva por sus enormes ventajas con relación a la cirugía abierta. ASISTENTE QUIRÚRGICO Y SUS INICIOS Las técnicas complejas como la sutura y la ligadura, son difíciles para los cirujanos en el curso de la laparoscopia debido a la carencia del sentido del tacto, a la imagen bidimensional (2-D) que da el monitor, a la pérdida de coordinación de la mano (Fig.1) y la vista, puesto que los instrumentos han de moverse en la dirección opuesta de la que se desea en el monitor (es decir, el efecto de la imagen en el espejo) (Fig. 2) y de la limitación de las posibilidades motrices de la mano, la muñeca y los dedos. Todo esto hace que aumente la tensión mental y física a que está sometido el cirujano. Lo fundamental es que las intervenciones quirúrgicas han ido evolucionando a lo largo de los años sobre la base de los ojos entrenados y las manos hábiles del cirujano.
Figura No. 1
Figura No. 2
Estas limitaciones quedan superadas con las tecnologías informáticas avanzadas como los robots quirúrgicos y las imágenes tridimensionales (3-D). Los robots quirúrgicos como el Da Vinci Surgical System proporcionan al cirujano técnicas manuales y visuales tecnológicamente avanzadas que han revolucionado muchos campos de la cirugía mínimamente invasiva, superando claramente a la laparoscopia convencional sobre todo en cirugías delicadas y complejas al proporcionar al cirujano un mapa detallado para ver los tejidos sanos y para la preservación nerviosa, como es la prostatectomía radical, por su excelente visión (3D), la maniobrabilidad de sus instrumentos articulados y la precisión quirúrgica, que contribuyen a realizar cirugías de mayor calidad y extraordinaria ergonomía. El Robot Da Vinci Surgical System El Da Vinci Surgical System es un sistema robótico asistido informáticamente (Fig. 3) que amplía la capacidad del cirujano de operar el interior del cuerpo humano de forma menos invasiva. Figura No. 3 Da Vinci® Surgical System 1. Monitor del asistente. 2. Robot quirúrgico. 3. Los instrumentos intercambiables con tecnología EndoWrist siguen al mismo tiempo los movimientos de la mano y la muñeca del cirujano. 4. El cirujano en la consola operatoria. 5. El cirujano aplica movimientos manuales de cirugía abierta, que los instrumentos duplican con precisión en el campo operatorio. El sistema consta de tres partes principales: 1. La consola del cirujano, que está controlada por el mismo cirujano sentado en una posición cómoda y ergonómica (Figs. 4 y 5).
Figura No. 4
Figura No. 5
2. El Robot Quirúrgico, que se sitúa junto a la mesa de operaciones en la que está el
paciente y del que salen dos brazos que realizan directamente el procedimiento (Fig. 6).
Figura No. 6 3. El sistema de visión, que es el tercer brazo del Robot Quirúrgico, sostiene una cámara endoscópica en 3-D de alta calidad (Fig. 6). Un cuarto brazo puede emplearse para reemplazar a un asistente. La consola del cirujano consiste en un visualizador que presenta imágenes 3-D obtenidas a partir de la cámara endoscópica que está dentro del cuerpo del paciente. El término «manipulación amoesclavo» se refiere a la consola del cirujano, equipada con manipuladores «amos» que controlan: 1) los movimientos de los manipuladores quirúrgicos correspondientes («manipulador esclavo») que sostienen los instrumentos quirúrgicos Endo Wrist; y 2) el manipulador de la cámara endoscópica durante el procedimiento. Este manipulador amo-esclavo permite al cirujano la realización de procedimientos más precisos en comparación con la cirugía laparoscópica convencional. Los instrumentos Endo Wrist® (Fig. 7) otorgan al cirujano siete grados de libertad en comparación con los cuatro grados que proporciona la cirugía laparoscópica convencional y son comparables al movimiento de la mano humana en cuanto a aumento de la destreza.
Figura No. 7 Por lo tanto, el resultado es: 1) un traslado intuitivo del asa del instrumento al movimiento de la punta, eliminando así el efecto de imagen en el espejo y mejorando la coordinación mano-vista; 2) el escalado de los movimientos del instrumento (desde 1:1 a 1:3 y a 1:5), lo que permite una disección precisa y delicada (Fig. 8); 3) eliminación del temblor del cirujano gracias a los filtros informáticos, y 4) la alineación coaxial de los ojos, la mano y la imagen de la punta de la herramienta. Hasta ahora se han realizado muchos tipos de intervenciones quirúrgicas con el sistema quirúrgico Da Vinci®, en los campos abdominal, cardíaco, toracoscópico, ginecológico y urológico.
Figura No. 8 Tipos de cirugías de cánceres asistida por el Robot Da Vinci •
Cirugía abdominal
•
Cirugía ginecológica
•
Cirugía cardíaca
•
Cirugía toracoscópica
•
Cirugía Urológica
CONCLUSIONES La cirugía robótica es un avance técnico mínimamente invasivo que está fascinando a los cirujanos. El uso de robots como el Da Vinci® indudablemente ha colocado al futuro de la cirugía urológica en situación de velocidad multiplicada, ha eliminado los principales inconvenientes de la laparoscopia convencional: la visualización, la coordinación manosojos y las limitaciones del movimiento manual. Estos avances han hecho disminuir la curva de aprendizaje y el tiempo operatorio y la convierten en un procedimiento quirúrgico atractivo e inimaginable para los cirujanos.
10 CLOUD COMPUTING Consiste en el desarrollo y el uso de la tecnología de computación basado en Internet (que es la Nube). La Nube es una metáfora para el Internet, basado en como se dibuja en diversos diagramas de redes, y es una abstracción de la compleja estructura que oculta. Cloud Computing es un estilo de computo en donde las capacidades relacionadas con TI (Tecnología Informática) se proveen como servicio, permitiendo a los usuarios acceder a estos sin el conocimiento experto, o control sobre la infraestructura de tecnología que soporta a los mismos (servicios). De acuerdo con la IEEE Computer Society, Cloud Computing es: “El paradigma en el que la información se almacena de manera permanente en servidores en Internet, y luego se almacena de manera temporal (usando un cache) en clientes que incluyen: computadoras de escritorio, laptops, tablet pc, móviles, centros de entretenimiento, etc.” Cloud Computing es también un concepto que incorpora SaaS (Software as a Service), web 2.0 y otras tendencias tecnológicas bien conocidas, en donde el tema principal o común, es la confianza en los servicios de Internet para satisfacer las necesidades computacionales de los usuarios. Por ejemplo: Google Apps provee una plataforma común de negocios en linea, que se acceda desde un navegador, mientras que el software y los datos se almacenan en los servidores de Google. Historia: El concepto principal, surge cuando John McCarthy opino (en 1960) que “La computación podría ser organizada algún día como una utilidad publica”. El termino Cloud ya se usaba de manera comercial en 1990 para las grandes redes ATM. Para principios del siglo 21, las soluciones basadas en Cloud Computing comenzaron a aparecer, sin
embargo, se enfocaron en su mayoría al SaaS. Amazon.com juega un papel importante en el desarrollo de Cloud Computing al modernizar sus centros de datos (la arquitectura de nube resulto en mayor eficiencia interna de la compañía) después del efecto de la “burbuja puntocom” (dotcom bubble). El año 2007, presento un aumento acelerado en esta área, grandes compañías como IBM y Google, y varias universidades, comenzaron a invertir millones de dolares y a embarcarse en proyectos de investigación del uso de estas tecnologías. Para mediados de 2008, Cloud Computing se convirtió en el tema de conversación general, tanto para los grandes negocios, como para los internautas en general. Para Agosto de 2008, se puede observar que varias organizaciones están migrando de un modelo de compañía que posee hardware y software, a modelos de infraestructura tecnológica basada en el uso de servicios (que brinda la Nube). El crecimiento de Cloud Computing, va íntimamente relacionado con el crecimiento y la evolución de los proveedores de Internet (Internet Service Providers). Características Principales: Los gastos de capital se minimizan, ya que la “infraestructura” tecnológica se ● obtiene mediante el arrendamiento de los proveedores. Independencia de Hardware y de ubicación, lo que permite que los usuarios ● accedan a los sistemas a pesar de la ubicación o del dispositivo de hardware que usan (PC, móvil). Multilatencia, que permite compartir recursos (y costos) entre muchos usuarios. ● El Rendimiento es monitorizado y consistente, pero puede ser afectado por ●
insuficiente ancho de banda y cargas elevadas en la red. Confiabilidad al permitir tener varios sitios redundantes, que permiten recobrarse ● rápidamente de desastres. La Escalabilidad permite adaptarse rápidamente a las demandas de los usuarios. ● La Seguridad mejora al encapsular las amenazas, y permitir respaldos periódicos ● de contenedores virtuales. Sin embargo, puede ser una piedra de tropiezo, al ser administrado por terceras personas, y no por la compañía misma. Es Sostenible, porque se mejora la reutilización de recursos. ● Componentes de Cloud Computing: Hay que recordar que Cloud Computing es un concepto que acuña varias tecnologías o componentes. Los componentes de Cloud Computing los podemos clasificar en: Aplicaciones, Clientes, Infraestructura, Plataforma, Servicio y Almacenamiento. Aplicaciones: No existe la necesidad de instalar o implantar el software en la maquina cliente, lo que alivia en cierto grado la cerca del mantenimiento de software. Por ejemplo: Google Maps, Google Documents. Clientes: Un cliente de Cloud Computing puede ser cualquier equipo de hardware y/o cualquier software que se apoya en la nube para mostrar la aplicación. Por ejemplo: Los clientes pueden ser dispositivos móviles como Android o el iPhone, o un navegador web como Firefox o Safari. Infraestructura: La infraestructura computacional de la nube, se otorga, arrienda o alquila típicamente
como un ambiente virtualizado, en forma de servicio. Un ejemplo de esto: Amazon Elastic Compute Cloud (Paravirtualization). Plataforma: Al igual que la infraestructura, la plataforma en una nube, se brinda como un servicio. La forma mas familiar en la que podemos pensar, en es un Web Framework, es decir, una plataforma de desarrollo web, que brinden el API adecuado para solicitar los servicios de la nube, lo que nos libera de la complejidad de manejar las capas de software y hardware que la nube oculta, o que de alguna otra manera, tendriamos que considerar. Ejemplo de una Plataforma es: Django (Google App Engine), Ruby on Rails (Heroku). Servicio: Un servicio en la nube puede ser un Web Service, es decir: Sistema(s) de software diseñado para soportar una interaccion interoperable entra maquinas sobre una red, que se puede accesar por otros Web Services alojados en la nube. Por ejemplo: OpenID (identidad), Amazon Simple Queue Service (Integracion), Google Maps y Yahoo Maps (mapas). Almacenamiento: El almacenamiento en la nube se brinda como un servicio, no solo para almacenar archivos(como se suele hacer en un servidor FTP), sino que también incluye el almacenamiento en una base de datos. Usualmente se cobran utilidades por demanda (gigabytes por mes). Por ejemplo: Amazon SimpleDB (Bases de Datos), Amazon S3 (Web Service). Arquitectura: La arquitectura del Cloud Computing esta basada tanto en elementos de hardware como de software. La Arquitectura de un proveedor de Cloud Computing, la podríamos dividir en tres elementos o “capas”: Grid Engine, Contenedor de Servidores Virtuales y el Hardware. Estos elementos se complementan y comunican mediante un concepto
llamado Cloud Integrador (Integrador de Nube). Incluye típicamente muchos componentes de la nube, que se están comunicando entre si mediante interfaces web, usualmente Web Services. La idea de los componentes de la nube, es similar a la filosofía de los sistemas de familia Unix, que tienen múltiples programas haciendo solo una cosa, y haciéndola bien, trabajando entre si mediante interfaces universales. La complejidad se controla y así resultan sistemas muchos más manejables que sus contrapartes. Recuerde que la facilidad de Cloud Computing radica en que esta tecnología se extiende hacia los clientes en donde los simples navegadores web, o algún otro tipo de software se usa para accesar las aplicaciones de la nube. Roles: Los roles que se adquieren en un ecosistema de Cloud Computing pueden ser: Habilitadores, Proveedores y Consumidores (también se les puede encontrar como Proveedores, Vendedores y Consumidores). Habilitadores: Son las compañías que poseen los bloques elementales de tecnología (con respecto al Software usualmente) que permiten (habilitan) a terceras personas el diseño o implementación de las capas (de software) fundamentales para que una empresa se convierta en un proveedor de Cloud Computing. Por ejemplo: VMWare/EMC, Citrix, Dell, HP, RedHat, Intel, Sun Microsystems, IBM, etc... Proveedores: Son las empresas que brindan los servicios basados en la nube a todos sus clientes, usualmente son empresas que tiene el poder adquisitivo para invertir millones de dolares en infraestructura. Por ejemplo: Amazon Web Services, Rackspace, Google y Microsoft. Consumidores: Son las compañías que se construyen o mejoran sus aplicaciones web (SaaS) encima de los proveedores existentes, sin la necesidad de invertir en centros de datos o hardware
exclusivo o caro.
11 MICROCHIPS BAJO LA PIEL Históricamente las tecnologías han sido usadas para satisfacer necesidades esenciales (alimentación, vestimenta, vivienda, protección personal, relación social, comprensión del mundo natural y social), para obtener placeres corporales y estéticos (deportes, música, etc) y como medios para satisfacer deseos (simbolización de estatus, fabricación de armas y toda la gama de medios artificiales usados para persuadir y dominar a las personas). Las tecnologías no son ni buenas ni malas. Los juicios éticos no son aplicables a las tecnologías, sino al uso que hacemos de ellas: un arma puede usarse para matar a una persona y apropiarse de sus bienes o para salvar la vida matando un animal salvaje que quiere convertirnos en su presa.
Ni el habla cotidiana ni los tratados técnicos establecen claramente la diferencia entre tecnologías y técnicas. Las tecnologías simples tienden a ser llamadas. Las tecnologías complejas usan muchas tecnologías previas simples estableciendo una amplia gradación de complejidad en uno de cuyos extremos están las tecnologías más complejas, como las electrónicas y las médicas, y en el otro las técnicas, generalmente manuales y artesanales, más cercanas a la experiencia directa de las personas. En algún punto intermedio desaparece o se hace borrosa la distinción entre tecnologías y técnicas. En el lenguaje técnico es frecuente denominar tecnologías a los saberes prácticos más racionales y transmisibles con mayor precisión (generalmente a través de textos, gráficos, tablas y representaciones varias y complejas), mientras que a las técnicas se les asigna un carácter más empírico que racional. Algunas de las tecnologías actuales más importantes, consisten en la aplicación práctica de las ciencias, sin embargo, no todas las tecnologías son ciencias aplicadas. Tecnologías como la agricultura y la ganadería precedieron a las ciencias biológicas en miles de años, y se desarrollaron de modo empírico, por ensayo y error sin necesidad de saberes científicos. La función central de las ciencias es caracterizar bien la realidad, aunque no sea visible o vaya contra el "sentido común": describir y categorizar los fenómenos, explicarlos en base a leyes o principios lo más simples posibles y tal vez (no siempre) predecirlos. Una nueva tendencia para abrirse paso bajo la piel: la de llevar injertada en forma de microchips información personal que va desde lo financiero, información médica o bien, datos que permitan la localización satelital podría ya ha sido lanzada con muy buenos resultados en Europa y México, por lo que se espera que pueda ser lanzada pronto en otros países de Latinoamérica. En Londres, uno de cada diez adolescentes aseguró que estaría dispuesto a que le implanten un microchip con información de sus cuentas bancarias, para poder realizar compras sin tener que llevar dinero en efectivo o una tarjeta de crédito. Según esta encuesta, realizada por el Instituto Británico para el Estudio del Sector de la Alimentación (Institute for Grocery Distribution, IGD), los adolescentes son más abiertos a este tipo de prácticas, que entre los adultos serían aceptadas sólo por uno de cada veinte. Las ventajas para el usuario serían disponer siempre de efectivo y de mayor seguridad a la hora de realizar cualquier tipo de transaccion, ya que el chip no puede ser simplemente arrebatado; y para el comercio, saber instantáneamente quién es el cliente y de cuánto dinero dispone para pagar la compra. El mecanismo funcionaría injertando bajo la piel el microchip, que tiene entre 5 y 7 mm de largo, el tamaño equivalente al de un grano de arroz. El mismo podrá ser leído por un escáner de radiofrecuencia que recupera los datos. Para poder emitir la señal, el microchip debe estar provisto de una pila de litio especial, constantemente recargada por las variaciones de temperatura del cuerpo humano. Más de un millón y medio de dólares se invirtieron en averiguar en qué lugar del
cuerpo la temperatura varía más rápidamente. Se hallaron dos lugares posibles propicios para implantar el chip y recargar la pila: la frente, en la raíz del cabello, y en el dorso de la mano derecha. El procedimiento de implantación es indoloro, aunque puede provocar algunas molestias después de injertado. Según una publicación de Europa Press, este sistema ya funciona en la discoteca catalana Baja Beach Club, en Barcelona, España. En esta discoteca el chip permite a sus portadores no tener que mostrar documentos o tarjetas de crédito para pagar el consumo. Se espera que en un futuro sirva incluso para sacar dinero de los cajeros automáticos sin necesidad de tarjeta de crédito. El uso de estos chips ya tienen múltiples aplicaciones, que van desde su colocación en perros y gatos para evitar que se pierdan, hasta su colocación en las zapatillas de los corredores de maratones para impedir que hagan trampa. En Estados Unidos se evalúa la colocación de chips en los pasaportes, que podrían contener datos tales como nombre, sexo, lugar de nacimiento, fotografía digital e incluso, imagen de la huella dactilar. Las dudas en contra de los mismos se centran en la seguridad individual, dado que mediante una antena capaz de captar la microfrecuencias del chip podría robar la información personal del portador y utilizarla para la falsificación de identidad. Sin embargo, también pueden aplicarse a cuestiones más vitales: por ejemplo, en Estados Unidos también se estudia su posible implementación para guardar datos de la historia clínica de las personas, para que ante una urgencia, con sólo pasar un lector por el chip injertado los médicos cuenten con los antecedentes del paciente. En relación a este uso, una encuesta de D'Alessio IROL en Argentina develó que siete de cada diez personas estarían dispuestas a llevar estos chips. Siguiendo en Latinoamérica, comienza a surgir la implantación subcutánea de tecnología para el rastreo satelital de la localización de un individuo. Por ejemplo, en la ciudad de San Pablo en Brasil esta técnica está disponible para los empresarios que temen ser víctimas de un secuestro. Según el semanario Carta Capital, la demanda se circunscribe actualmente a un sector que tan sólo representa el 0.3% de los más de veinte millones de habitantes de esa ciudad. La inseguridad parece ser una buena propulsora del avance de los mecanismos personales de GPS (Global Position System o Sistema de Posicionamiento Global, por sus siglas en inglés). En Buenos Aires, la empresa HAWK GPS Solutions promociona un dispositivo para que los padres puedan saber en todo momento y con exactitud dónde están sus hijos. Quienes contraten el servicio, podrán acceder desde una página web a una localización precisa de los menores y seguir sus movimientos. El servicio también se ofrece como ventajoso para utilizar con ancianos y equipos de trabajo. En este caso, no se utiliza bajo la piel, sino que puede llevarse, por ejemplo, en un bolsillo. Chips, GPS y otras tecnologías simplifican la identificación, ahorran tiempo y permiten el seguimiento de las personas, pero está latente el riesgo de que la comodidad que brindan se pague con la pérdida de la privacidad.
VERICHIP VeriChip es una empresa pionera en el desarrollo de chips RFID (Radio Frecuency Identification o Identificación por Radiofrecuencia, por sus siglas en inglés) para seres humanos, cuyo dispositivo lleva el mismo nombre de la empresa. Este dispositivo de radio frecuencia se implanta en el cuerpo humano con fines de identificación. Esto lo hace útil en una variedad de aplicaciones médicas como:
•
Identificación de dispositivos médicos como marcapasos, válvulas coronarias o articulaciones artificiales. • Integración y consulta del historial médico de pacientes que requieren cuidados especiales. • En casos de emergencia, permite la identificación rápida y segura de una persona, sin necesidad de recurrir a técnicas biométricas como el estudio de huellas dactilares, reconocimiento de voz u otras más sofisticadas. Esta empresa saltó a la fama recientemente cuando se hizo público su acercamiento al presidente de los Estados Unidos con una propuesta para implantar un chip a inmigrantes, el cual vale recordar, sólo puede ser quitado mediante métodos quirúrgicos. El debate generado fue tal que según voceros hasta el mismo presidente de Colombia manifestó su interés en la aplicación de esta tecnología para controlar que los inmigrantes colombianos en Estados Unidos regresaran a su país al finalizar sus contratos de trabajo temporal. Asimismo, se encuentra en periodo de pruebas y diseño su aplicación en Solusat Médica, para utilizarse como expediente electrónico incluyendo imágenes como ultrasonidos, radiografías, etc. Un solo dispositivo es suficiente para proporcionar todas las aplicaciones descritas. Se realiza un rastreo corporal por medio de un escáner externo, el cual emite ondas electromagnéticas de radiofrecuencia que traspasan la piel y activan el Verichip después de ser insertado en el cuerpo. Una vez activado, emite una señal de radiofrecuencia que contiene el número único de identificación del Verichip.
El número de identificación, no es superior a 128 caracteres y es captado por el escáner que a su vez está conectado a través de una línea telefónica o red LAN, a una base de datos almacenada en un servidor de Internet. Desde ahí se puede tener acceso a toda la información disponible sobre cada usuario. Como es de suponer, el sitio tiene acceso restringido.
Sin embargo, con anterioridad a este suceso se había propuesto ya la implantación de chips en seres humanos con fines de identificación. La empresa Applied Digital Solutions, de cuya empresa Verichip Corp. es subsidiaria, reza en su slogan "the power of identification techonology" (el poder de la tecnología de identificación). Hace años había ya patentado un chip similar en tamaño a una pastilla que una vez dentro del organismo enviaba señales a un scanner con información acerca del tipo de sangre, historial médico y otros datos de interés sobre el portador que permitirían su identificación frente a una eventual guerra o catástrofe. Actualmente esta empresa comercializa el chip a través de Verichip Corporation bajo el slogan "Locate. Identify. Protect" (Localizar. Identificar. Proteger).
12 DANCE CHARGE
QUE ES LA ENERGÍA CINÉTICA En física, energía se define como la capacidad para realizar un trabajo. Dentro de las formas de generar energía se encuentran las renovables que son las que se obtienen de fuentes naturales y dentro de esta categoría esta la energía cinética. La energía cinética de un cuerpo es una energía que surge en el fenómeno del movimiento, es la parte de la energía mecánica de un cuerpo y corresponde al trabajo de las transformaciones que un cuerpo puede producir, debido a su movimiento y por tanto es un recurso renovable y autóctono. Esta capacidad de realizar cambios, que poseen los cuerpos en movimientos, se debe fundamentalmente, a dos factores: la masa del cuerpo y su velocidad. Un cuerpo que posee una gran masa, podrá producir grandes efectos y transformaciones debido a su movimiento. Para poner un cuerpo en movimiento es necesario aplicarle una fuerza. Cuanto mayor sea el tiempo que esté actuando dicha fuerza, mayor será la velocidad del cuerpo y, por lo tanto, su energía cinética será también mayor. Un ejemplo de la generación de esta energía se puede observar cuando una bala, de apenas unos gramos, puede penetrar en gruesos troncos, al ser disparada a gran velocidad con un fusil. BENEFICIOS DE LA ENERGÍA CINÉTICA
Habiendo descrito y entendiendo lo que es la energía cinética podemos preguntarnos que beneficios ha traído a la humanidad las tecnologías desarrolladas con energía cinética, aprovechando que la energía cinética se puede encontrar en todas partes, existen diversos tipos de aplicaciones que han ayudado al desarrollo tecnológico de la humanidad para la satisfacción de necesidades básicas, entre estas se pueden mencionar las que aprovechan la transformación energía cinética del viento para hacer trabajo mecánico o para generar electricidad como en molinos y pozos, llamada energía eólica, además del beneficio tecnológico la generación de electricidad a partir del viento evita la producción de gases tóxicos que contribuyan al efecto invernadero y a la lluvia ácida. Se considera, energía limpia, pues para generar esa electricidad no origina productos secundarios y peligrosos para el hombre, tierra y atmósfera. EL CUERPO HUMANO COMO FUENTE DE ENERGÍA El ser humano es en definitiva un generador de energía, la realización de actividades físicas cotidianas como caminar, correr, etc. generan energía cinética y esta puede ser utilizada para generar electricidad, existen varias empresas europeas que han analizado este hecho como la empresa GotWind, una empresa con 25 años de experiencia en el diseño y la fabricación de proyectos de energía renovable a pequeña escala, que hasta hace unos cuantos años se centraba en especial en la energía eólica y la energía solar, ha ganado prestigio por el desarrollo de este tipo de proyectos por ello generó un gran interés en diferentes tipos de empresas, una de ellas es la empresa proveedora francesa de telecomunicaciones móviles Orange, dicha organización se asocio con Gotwind en el 2007 con el propósito de crear mecanismos útiles para recargar dispositivos que provee Orange.
La primera creación de Gotwind para Orange es el prototipo de una tienda cargadora para ipods llamada “RechargePod”, que utiliza energía eólica y solar, la cual puede cargar hasta 100 unidades del reproductor por hora. Juntamente a RechargePod, esta asociación ha desarrollado otra tecnología similar llamada “Dance Charge”, un cargador portátil que se basa en el hecho de aprovechar que el cuerpo humano esta continuamente en movimiento y como tal es una fuente de energía, y es capaz de recoger la energía cinética que genera mientras esta en movimiento continuo, y convertirla en la energía necesaria para cargar algunos tipos de dispositivos tales como teléfonos móviles, mp3, etc. ¿QUE ES DANCE CHARGE?
Dance Charge es un brazalete similar a los que se utilizan para transportar ipod o mp3, la idea del diseño del brazalete nace básicamente en crear un producto innovador, entretenido e interactivo que alenté al usuario a mantenerse activo mientras carga su dispositivo portátil y al mismo tiempo aprovechar la energía cinética que puede generar el cuerpo humano en beneficio del avance de la tecnología, es por eso del nombre “Dance Charge” y del lema que simboliza al dispositivos “Cargá tu móvil bailando”, pero la asociación está buscando adaptarlo para que la generación de energía no se limite a cuando se está bailando o corriendo si no también pueda hacerlo al realizar otras actividades mas simples como caminar, aun en los quehaceres domésticos como aspirar, limpiar, etc. que siempre requieren del movimiento de los brazos aunque sea de una magnitud menor. El Dance Charge aprovecha el movimiento específicamente del brazo, en donde se ajusta para transformar el trabajo que se realiza en electricidad, esto se logra por la integración de un sistema de contrapesos en dicho brazalete. El material empleado para la fabricación del brazalete en si es el neopreno, material que se caracteriza por ser impermeable, además de que es no transpirable y aislante térmico. La densidad es de 4mm de espesor, Su cara interior forrada en tejido hipoalérgico, proporciona confort, produce un efecto antideslizante y los bordes están remallados para aumentar su durabilidad, además posee una banda elástica para ajustar el brazalete a varias medidas con un sistema de apertura y cierre rápido de velero.
Dance Charge cuenta con un dispositivo interno que es el que encarga de transformar la energía, es de una escala pequeña, posee una medida de 11 cm de alto por 5 cm de ancho y un peso de 180 gramos similar al de un paquete de naipes. CARACTERÍSTICAS TÉCNICAS Característica Nombre Diseñador Fabricante Año de creación Material Brazalete
Color Dimensiones del cargador interno Ancho x Alto Peso del cargador Mecanismo transformador
Descripción Dance Charge Orange GodWind 2007 Esta hecho de Neopreno material impermeable, Posee una Banda elástica con Velcro para su ajuste. Negro 11 X 5 cm. 180 gramos Sistema de contrapesos
Dispositivos compatibles Accesorios
No disponible Batería recargable
FUNCIONAMIENTO Mientras el usuario mueve sus brazos al correr o al ritmo de la música, un sistema especial de pesas e imanes, el sistema de tecnología cinética creado para Dance Charge utiliza el principio de Faraday, que indica que el movimiento de un conductor a través de un campo magnético produce voltaje en el conductor proporcional a la velocidad del movimiento. En este caso, el conductor es una bobina del alambre. El sistema utiliza un imán que se mueve alrededor de una bobina cada vez que el portador realiza algún movimiento, generando una carga que se almacena en una batería recargable (ver figura). Viéndolo de una forma más sencilla el sistema de tecnología cinética convierte la energía mecánica generada por el a electricidad y esta es almacenada en una batería recargable, que posterior se utilizará para cargar el dispositivo móvil deseado. De acuerdo a GotWind, luego de varias revisiones lograron alcanzar una eficiencia en la conversión de 85%. Esto permite que, según datos provistos por la empresa, una hora bailando puede proveer suficiente carga para llevar el indicador de batería a dos barras, suficiente para hablar continuamente por un período de 15 minutos. Orange y Gotwind realizaron pruebas para medir tanto la capacidad de recarga del dispositivo así como también el interés que genera a las personas y la aceptación del mismo, esto se realizó en un festival efectuado en Inglaterra en Glastonbury o Glasto, que es la celebración más grande a nivel mundial de música y artes, la prueba se hizo empleando un “cargador danzante”, cuyo trabajo consistía en bailar gratis para todos aquellos que necesitaran recargar sus aparatos celulares durante el festival
VENTAJAS Y DESVENTAJAS Ventajas: • •
Contribuye al cuidado del medio ambiente porque su fuente de alimentación es natural. Por el hecho de ser un instrumento portátil se puede generar energía en cualquier lugar, media vez se realicen movimientos con los brazos. • Es ajustable a cualquier tipo de persona debido al material con el que se creó el exterior del cargador. • El sistema trabaja con una fuente inagotable de energía ya que es energía renovable. Desventajas • • •
La generación de energía solo se lleva acabo al realizar ejercicios como el baile o ejercicios en donde el movimiento es más fluido. No permite cargar cualquier tipo de dispositivo. El usuario debe de ejercitarse o bailar varias horas para generar energía suficiente para cargar el dispositivo completamente.
Tecnologías similares Sustainable Dance Club
El club de baile sostenible de París: Una discoteca que se sirve del baile de la gente para producir energía. En Francia se construyó una discoteca en la que la pista de baile está construida con un mecanismo piezoeléctrico que produce electricidad al ser pisado, haciendo que la gente al bailar produzca energía. Según informan los creadores de 'Sustainable Dance Club' (SDC), la discoteca bautizada como 'Watt' abrió sus puertas el mes de septiembre. La idea consiste en producir electricidad mientras la gente se divierte bailando, gracias a una pista diseñada con 'materiales inteligentes' para transformar el movimiento en energía. Como detallan los impulsores de la SDC, 65 cm2 de pista producirían entre 5 y 10 vatios, dependiendo de la gente que estuviera bailando, y su coste rondaría los 3.500 euros. Eso sí, aún no está claro hasta qué punto esta fuente de energía puede abastecer todo un local, y SDC reconoce que aún no tienen todas las respuestas. De igual manera hay planes de construir gimnasios diseñados para producir energía a través de las bicicletas o ejercicios aeróbicos. Relojes cinéticos En 1988 surgió el reloj de Seiko Kinetic, que no se lanzaría comercialmente hasta 1992. El movimiento humano, en lugar de dar cuerda a un módulo mecánico, mueve un péndulo que alimenta a un mecanismo eléctrico. Laptop que funciona a pedales
Este es otro ejemplo de cómo la fuerza motriz del ser humano puede generar energía. El proyecto, lanzado por un equipo de la Universidad Politécnica de Madrid, permite el funcionamiento de un portátil con el simple movimiento del pedaleo de una persona como única fuente de energía. De esta forma, a la vez que la persona hace ejercicio, está trabajando con una energía totalmente limpia y renovable.
13 ERA DEL DIAGNOSTICO NO INVASIVO: LA TOMOGRAFIA COMPUTARIZADA
1.
LA MEDICINA NUCLEAR
La medicina nuclear es un área especializada de la radiología que utiliza cantidades muy pequeñas de sustancias radioactivas, o radiofármacos, para examinar la función y estructura de un órgano. La generación de imágenes en la medicina nuclear es una combinación de muchas disciplinas diferentes, entre ellas la química, la física, las matemáticas, la tecnología informática y la medicina. Esta rama de la radiología se utiliza a menudo para ayudar a diagnosticar y tratar anomalías muy temprano en la progresión de una enfermedad, como el cáncer. Debido a que los rayos X atraviesan los tejidos blandos como intestinos, músculos y vasos sanguíneos, es difícil visualizarlos con rayos X convencionales, salvo que se utilice un agente de contraste para facilitar la visualización del tejido. El método de imágenes nucleares permite la visualización de la estructura y la función órganos y tejidos. Durante el procedimiento se utiliza una pequeña cantidad de sustancia radioactiva que facilita el examen. Una vez que el paciente ha ingerido la sustancia y que el tejido del cuerpo la absorbe, se emitirá la radiación, la cual será captada por un detector de radiación. Las áreas en las que la sustancia radioactiva se concentra en mayor cantidad se denominan “zonas calientes”, las áreas que no la absorben aparecen con menor brillo en la imagen y se denominan “zonas frías”.
2.
LA TOMOGRAFIA COMPUTARIZADA
En las radiografías convencionales, se dirige un rayo de energía (rayos X) a la parte del cuerpo que se está estudiando. Una placa situada detrás de la zona del cuerpo captura las variaciones del rayo de energía después de que éste pasa a través de la piel, el hueso, el músculo y otros tejidos. Aunque puede obtenerse mucha información de las radiografías regulares, no se consiguen muchos detalles específicos de los órganos internos y otras estructuras. Es aquí en donde la Tomografía Computarizada (CT Scan o CAT Scan) mejora el uso de los Rayos X, debido a que éstos se mueven en círculo alrededor del cuerpo, para obtener imágenes radiológicas del cuerpo por secciones longitudinales, a distancias de media pulgada. Es el equivalente fotográfico de cortar un pedazo de una fruta en varias rebanadas y mirar en la parte interior de las superficies que se han cortado. Sin embargo, para esto no se corta a nadie, y en efecto, es un proceso indoloro. Luego la información obtenida es enviada a una computadora que interpreta los datos de los rayos X y los presenta en forma tridimensional en un monitor. Además los estudios mediante TC se
pueden realizar con o sin contraste. El término "contraste" se refiere a una sustancia administrada oralmente o inyectada por vía indo venosa (IV) que hace que se vea más claramente el órgano o tejido en particular que se está estudiando. "El CT scan", sin embargo, no se puede usar para todo, aunque con su ayuda se pueden detectar ahora muchos más problemas médicos y más rápidamente. Por ejemplo, un "CT scan" es muy útil para encontrar hemorragia o tumores del cerebro, así como otros problemas en otras partes del cuerpo. Por otra parte, no es la mejor prueba para detectar un ataque al corazón o para hallar una úlcera estomacal.
3.
EL EQUIPO BRILLIANCE TC
El Brilliance TC, es un equipo de tomografía computarizada fabricado por la compañía holandesa Philips. Esta máquina toma un gran número de imágenes de rayos X y las combina con la ayuda de un programa informático, que permite ver dichas tomas de rayos X como imágenes tridimensionales, haciendo que los médicos las pueden rotar para verlas desde diferentes direcciones. El Brilliance TC genera las imágenes a una velocidad mucho mayor que los demás aparatos de TC: escanear un cuerpo completo toma menos de un minuto. Esto es posible porque el aparato que emite los rayos X (la parte gigante en forma de anillo que rodea al paciente) puede rotar cuatro veces por segundo, un 22% más rápido que los sistemas actuales.
3.1 EL SISTEMA BRILLIANCE CT. WORKSPACE
Es el primer entorno de usuario diseñado específicamente para los estudios de Tomografía Computarizada, y resulta de gran utilidad para ayudar a los usuarios a gestionar los conjuntos de datos que se generan de la adquisición de imágenes mediante el Brilliance TC.
WorkSpace ayuda a los usuarios a trabajar de forma más sencilla y rápida, pues permite cambios de vista, con un solo clic. Los menús contextuales le indican al usuario donde está y hacia dónde se dirige, además permite la generación de informes, incluso cuando se está fuera del Scanner TC. Es un sistema creado como plataforma escalable para que en el futuro pueda crecer e implementar otras aplicaciones, por lo que se vuelve una inversión a largo plazo.
4.
OTRAS APLICACIONES DE LA TOMOGRAFIA COMPUTARIZADA
La Tomografía Computarizada se ofrece como una posible alternativa a la autopsia convencional, especialmente en el caso de las personas que fallecen tras sufrir un accidente de automóvil o de moto. El escáner puede identificar la causa de la muerte o ayudar a encontrar las claves de la misma, por lo que ya no se trata de saber qué le ocurre al paciente, sino conocer qué le ha provocado la muerte. Un atropello, un accidente de auto o moto, un tiro o incluso una cuchillada. Este tipo de causas mortales, que en la mayoría de los casos provocan un fallecimiento instantáneo, son las que más pueden beneficiarse por el citado escáner. Éste complementa a las autopsias tradicionales, e incluso podría llegar a evitar la apertura del cadáver. La mencionada técnica ahorra tiempo y, consecuentemente, dinero, ya que tarda unos 30 minutos en realizar un examen completo del fallecido, en comparación con las varias horas que puede requerir una necropsia completa. Al no ser invasivo, el escáner impide que se dañen o destruyan evidencias clave en el diagnóstico forense. Y puede ser de gran utilidad en los casos en los que las creencias religiosas o culturales de la víctima, o de sus familiares, impidan ‘abrir’ el cadáver. Realizar primero una TC puede acelerar una autopsia convencional, especialmente cuando se trata de localizar fragmentos de bala, que son de vital importancia en las investigaciones criminales, no así en muertes que no sean causadas por traumatismos.
14 ETIQUETAS TRANSMISORAS
En la actualidad, la tecnología más extendida para la identificación de objetos son los códigos de barras. Sin embargo, presentan algunas desventajas, como son la escasa cantidad de datos que pueden almacenar y la imposibilidad de ser modificados (reprogramados). La mejora obvia que se ideó, y que constituye el origen de la tecnología RFID, consiste en usar circuitos integrados de silicio que pueden transferir los datos que almacenan a un lector, sin entrar en contacto físico (de forma equivalente a los lectores de infrarrojos utilizados para leer los códigos de barras). Así es como surge una de las tecnologías que está cambiando a pasos agigantados, la producción y el servicio que presta una empresa hoy en día.
Qué es RFID? Es un sistema de almacenamiento y recuperación de datos remotos que usan dispositivos denominados etiquetas, transpondedores o tags RFID. El propósito fundamental de la tecnología RFID es transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio. Una etiqueta RFID es un dispositivo pequeño, similar a una pegatina, que puede ser adherida o incorporada a un producto, animal o persona. Contienen antenas para permitirles recibir y responder a peticiones por radiofrecuencia desde un emisor-receptor RFID. Una de las ventajas del uso de radiofrecuencia (en lugar, por ejemplo, de infrarrojos) es que no se requiere visión directa entre emisor y receptor. El modo de funcionamiento de los sistemas RFID es simple. La etiqueta RFID, que contiene los datos de identificación del objeto al que se encuentra adherido, genera una señal de radiofrecuencia con dichos datos, esta señal puede ser captada por un lector RFID, que se encarga de leer la información y pasársela, en formato digital, a la aplicación específica que utiliza RFID, generalmente un ordenador.
Elementos de la Etiqueta Un sistema RFID está basado en los siguientes elementos: Transpondedor: Está compuesto por una antena, un transductor radio y un material encapsulado o chip. El propósito de la antena es permitirle al chip que contiene la información, transmitir la información de identificación de la etiqueta. El chip posee una memoria interna con una capacidad que depende del modelo y varía de una decena a millares de bytes. Transceptor: Compuesto por una antena, un transceptor y un decodificador. El lector envía periódicamente señales para ver si hay alguna etiqueta en sus inmediaciones. Cuando capta una señal de una etiqueta (la cual contiene la información de identificación de ésta), extrae la información y se la pasa al subsistema de procesamiento de datos. Subsistema de procesamiento almacenamiento de datos.
Clasificación de Etiquetas
de
datos:
Proporciona
los
medios
de
proceso
y
SEGÚN SU MEMORIA Existen varios tipos de memoria: Solo lectura: El código de identificación que contiene es único y es personalizado durante la fabricación de la etiqueta. De lectura y escritura: La información de identificación puede ser modificada por el lector. Anticolisión. Se trata de etiquetas especiales que permiten que un lector identifique varias al mismo tiempo (habitualmente las etiquetas deben entrar una a una en la zona de cobertura del lector). SEGÚN SU FUENTE DE ENERGÍA Dependiendo de la alimentación que tengan las etiquetas (tags) se pueden clasificar en: Tags Pasivos: No poseen ningún tipo de alimentación. La señal que les llega de los lectores induce una corriente eléctrica mínima que basta para operar el circuito integrado del tag para generar y transmitir una respuesta. Tags Activos: A diferencia de los tags pasivos, los activos poseen su propia fuente autónoma de energía, que utilizan para dar corriente a sus circuitos integrados y propagar su señal al lector. Estos tags son mucho más fiables (tienen menos errores) que los pasivos debido a su capacidad de establecer sesiones entre el lector. Son capaces de transmitir señales más potentes que las de los tags pasivos, lo que les lleva a ser más eficientes en entornos difíciles para la radiofrecuencia como el agua (incluyendo humanos y ganado, formados en su mayoría por agua), metal (contenedores, vehículos). Tags semipasivos: Se parecen a los activos en que poseen una fuente de alimentación propia, aunque en este caso se utiliza principalmente para alimentar el microchip y no para transmitir una señal. La energía contenida en la radiofrecuencia se refleja hacia el lector como en un tag pasivo.
EPC, Internet de los objetos EPC, Electronic Product Code, es un tag RFID capaz de identificar, con un código unívoco a nivel mundial, cualquier objeto fabricado o comercializado. Con una primera aproximación se puede considerar un equivalente del código de barras, en versión electrónica y con capacidad de transmisión radio. El sistema no define tan sólo el tipo de vehículo de identificación, sino también las necesarias tecnologías de red, parecidas a las de Internet, que aseguran la trazabilidad de dichos productos a lo largo de toda la cadena del suministro.
Aplicaciones Las etiquetas RFID de baja frecuencia se utilizan comúnmente para la identificación de animales, seguimiento de barricas de cerveza, y como llave de automóviles con sistema antirrobo. En ocasiones se insertan en pequeños chips en mascotas, para que puedan ser devueltas a su dueño en caso de pérdida.
Las etiquetas RFID de alta frecuencia se utilizan en bibliotecas y seguimiento de libros, seguimiento de productos, control de acceso en edificios, seguimiento de equipaje en aerolíneas y seguimiento de artículos de ropa. Un uso extendido de las etiquetas de alta frecuencia como identificación de insignias, substituyendo a las anteriores tarjetas de banda magnética. Sólo es necesario acercar estas insignias a un lector para autentificar al portador. Las etiquetas RFID se ven como una alternativa que reemplazará a los códigos de barras, puesto que tiene un número de ventajas importantes sobre la arcaica tecnología de código de barras. Quizás no logren sustituir en su totalidad, debido en parte a su costo relativamente más alto. Para algunos artículos con un costo más bajo la capacidad de cada etiqueta de ser única se puede considerar exagerado, aunque tendría algunas ventajas tales como una mayor facilidad para llevar a cabo inventarios. También se debe reconocer que el almacenamiento de los datos asociados al seguimiento de las mercancías a nivel de artículo ocuparía muchos terabytes. Es más probable que las mercancías sean seguidas a nivel de distribución usando etiquetas RFID, y a nivel de artículo con producto único, en lugar de códigos de barras únicos por artículo. Los códigos RFID son tan largos que cada etiqueta RFID puede tener un código único, mientras que los códigos UPC actuales se limitan a un solo código para todos los casos de un producto particular. La unicidad de las etiquetas RFID significa que un producto puede ser seguido individualmente mientras se mueve de lugar en lugar, terminando finalmente en manos del consumidor. Esto puede ayudar a las compañías a combatir el hurto y otras formas de pérdida del producto. También se ha propuesto utilizar RFID para comprobación de almacén desde el punto de venta, y sustituir así al encargado de la caja por un sistema automático que no necesite ninguna captación de códigos de barras.
Beneficios Combinación de diferentes tecnologías integrables: RFID e Internet. Lecturas más rápidas y más precisas (Eliminando la necesidad de tener una línea de visión directa).
Niveles más bajos en el inventario. Mejora el flujo de caja y la reducción potencial de los gastos generales. Reducción de roturas de stock. Capacidad de informar al personal o a los encargados de cuándo se deben reponer las estanterías o cuándo un artículo se ha colocado en el sitio equivocado.
Disminución de la pérdida desconocida. Ayuda a conocer exactamente qué elementos han sido sustraídos y, si es necesario, dónde localizarlos.
Integrándolo con múltiples tecnologías: video, sistemas de localización, etc. Con lectores de RFID en estanterías ayudan a prevenir el robo en tienda.
Mejor utilización de los activos. Seguimiento de sus activos reutilizables (empaquetamientos, embalajes, carretillas) de una forma más precisa.
Luchar contra la falsificación (Esto es primordial para la administración y las industrias farmacéuticas).
Retirada del mercado de productos concretos inservibles. Reducción de costos y en el daño a la marca (averías o pérdida de ventas).
15 IPHONE ANTECEDENTES DEL IPHONE TELÉFONO CELULAR Las tecnologías han tenido mucho auge y desarrollo en estos últimos años siendo una de estas el desarrollo de la telefonía celular. El teléfono fue inventado por Alexander Graham Bell en 1876 cuyo primer modelo fue lanzado al mercado con el nombre de Motorola DynaTAC 8000X en 1983 cuyas características son: Analógico Peso 28 onzas Medidas: 13” x 1.75” x 3.5” A pesar de que la telefonía celular fue concebida estrictamente para la voz, la tecnología celular de hoy es capaz de brindar otro tipo de servicios, como datos, audio y video con algunas limitaciones Las generaciones de la telefonía inalámbrica Generación (1G) La 1G de la telefonía móvil hizo su aparición en 1979; se caracterizó por se analógica y estrictamente para voz; la calidad de los enlaces era baja Generación (2G) Se caracterizó por ser digital aplicando tecnologías como: GSM (Global System por Mobile Communications), IS-136 (TIA/EIA136 o ANSI-136), CDMA (Code Division Multiple Access) y PDC (Personal Digital Communications) ofreciendo servicios de datos, fax y SMS (Short Message Service) Generación 2.5 G Ofrece características con más capacidades adicionales que los sistemas 2G como: GPRS (General Packet Radio System), HSCSD (High Speed Circuit Switched) Generación 3G La 3G se caracteriza por contener a la convergencia de voz y datos con acceso inalámbrico a Internet, multimedia, videoconferencia y acceso rápido a Internet iPod Apple lanzo el primer iPod el 23 de octubre de 2001 es un reproductor de música digital con pantalla en color y disco duro, o en el caso de iPod nano, iPod shuffle y iPod touch con memoria flash, es uno de los reproductores de audio digital más vendidos en el mundo. Actualmente, la línea de productos iPod se compone de cuatro series: • iPod classic reproducción de vídeo y equipado con un disco duro de 80 o 160 GB, 40 horas de reproducción de sonido, tiene un delgado diseño metálico. • iPod nano tiene una memoria flash de 4 GB u 8 GB cuya batería tiene 24 horas de duración, vídeo de hasta 5 horas de duración, pantalla con una resolución de 320 por 240 con el mayor número de píxeles por pulgada • iPod shuffle sin pantalla y con una memoria flash de 1 y 2 GB siendo lanzado al mercado en febrero de 2008; teniendo una capacidad de 500 canciones. • iPod touch equipado con memoria de 8GB y 16G contando con una red inalámbrica vía Wi-Fi, pantalla multitáctil con una resolución 320x480 píxeles de 3.5 pulgadas similar a la del iPhone, reproducción de audio pudiendo ser descargado de internet y vídeo cuyas dimensiones son de 11 cm alto, 6.2 ancho, 8 mm de fondo, peso de
120 gramos. Su batería ofrece 22 horas en reproducción de audio y 5 horas en reproducción de vídeo, con un tiempo de carga de 3 horas. ESPECIFICACIONES Dimensiones y peso: Alto: 4.5 pulgadas (115.5 mm) Ancho: 2.4 pulgadas (62.1 mm) Profundidad: 0.48 pulgadas (12.3 mm) Peso: 4.7 onzas (133 gramos) Color: Modelo de 8GB: Negro Modelo de 16GB: Negro o Blanco Pantalla: Pantalla ancha de 3.5 pulgadas con Multi-Touch Resolución de 480x320 pixeles Soporte para mostrar múltiples lenguajes y caracteres simultáneamente Capacidad: Disco flash de 8GB o 16GB Conectores y entradas/salidas: Conector para dock de 30 pin Minijack para auriculares estéreo de 3.5 mm Parlante incorporado Micrófono Bandeja para tarjeta SIM Sensores: Acelerómetro Sensor de proximidad Sensor de luz ambiente Tiempo de conversación: 5 horas con 3G 10 horas con 2G Reproducción de Video: 7 horas Reproducción de Audio: 24 horas Teléfono celular GSM de cuatro bandas cuyos rangos son: • 850 MHz • 900 MHz • 1800 MHz • 1900 MHz BOTONES Botón de reposo/activación: Si no se va a utilizar el iPhone pero se desea poder recibir llamadas y mensajes de texto se puede bloquear. Cuando el iPhone está bloqueado no sucede nada al tocar la pantalla; pero se puede escuchar música, ajustar el volumen, utilizar el botón del auricular manos libres estéreo incluido para reproducir o poner en pausa una canción y responder o terminar una llamada Botones de volumen: Cuando se está hablando por teléfono, escuchando canciones, películas u otros archivos multimedia los botones laterales del iPhone permiten ajustar el volumen del sonido. En el resto de los casos estos botones controlan el volumen del timbre, las alertas y otros efectos de sonido Botón de tono/silencio
Cuando está ajustado en el modo de tono el iPhone reproduce todos los sonidos y cuando está ajustado en el modo silencio no suena ni reproduce ninguna alerta o efecto de sonido; no obstante, las alarmas ajustadas con el Reloj sí que suenan. Por omisión al recibir una llamada el iPhone vibra tanto en el modo de tono como en el modo silencio. Si el iPhone está ajustado en el modo de tono se puede silenciar una llamada pulsando el botón de reposo/activación o uno de los botones de volumen una vez. Púlselo una segunda vez para enviar la llamada al buzón de voz Pantalla táctil Los controles de la pantalla táctil del iPhone cambian de forma en función de la tarea que esté realizando • Apertura de aplicaciones Abrir una aplicación: Pulsar un icono • Desplazamiento Se puede arrastrar hacia arriba o hacia abajo para desplazarse, en las páginas web también se puede desplazarse lateralmente • Auricular manos libres El auricular manos libres incluido con el iPhone incluye un micrófono y un botón integrado que permite responder y terminar llamadas con facilidad, así como controlar la reproducción de audio y vídeo APLICACIONES Teléfono Para marcar un número de teléfono se presionan las teclas virtuales y al final se presiona el botón de "Call"; si el contacto ya está almacenado en memoria solo se selecciona de un listado que sale en la pantalla y se presiona el botón de llamada cuenta con un "speakerphone" o altavoz el cual puede utilizarse en modalidad de manos libres lo que facilita su uso en el carro Al entrar una llamada sale en pantalla el número o Caller-ID de donde están llamando y en dado caso la foto de la persona que está llamando si esta almacenada, esto hace muy fácil identificar quién está llamando; con un click del botón lateral se puede silenciar el ring y con dos clicks se manda la llamada directamente al correo de voz lo cual resulta práctico; se puede hablar con varias personas a la vez permitiendo a su vez pasar de una llamada a otra u organizar una conferencia Mail El correo se ve y funciona como un ordenador siendo compatible con los servidores y proveedores de correo más comunes entre ellos: Exchange de Microsoft, Yahoo Mail, Google Gmail y con casi todos los sistemas de correo estándar IMAP y POP también es compatible con correo electrónico en HTML; además los documentos adjuntos se ven en su formato original no en versión reducida se puede girar, ampliar y reducir documentos en formatos de archivo e imagen como: Word, Excel y PowerPoint de Microsoft y PDF Safari Es el navegador web más avanzado que tiene un dispositivo portátil, mediante las tecnologías 3G y Wifi se puede navegar por la Red a toda velocidad. Se puede ver cualquier página web con más detenimiento ampliando o reduciendo su tamaño con un par de toques ya sea de manera horizontal o vertical teniéndose que girar iPhone 90 grados para que la página se adapte Ipod
Gracias a su pantalla panorámica de 3,5 pulgadas y a sus controles Multi-Touch, también es un fantástico iPod recorre canciones, artistas, álbumes, listas de reproducción con un solo toque, navega por la biblioteca musical, se puede ver las letras de las canciones que hayas añadido a tu biblioteca de iTunes. Y si se recibe una llamada de teléfono mientras se escucha música; se pulsa el micrófono de los auriculares del iPhone y la canción se detendrá para que se pueda contestar Tecnologías 3G: La tecnología 3G (3G-324M) aplicada a la video llamada le permite al usuario iniciar una comunicación de audio y video en tiempo real de manera tan fácil como marcar un número de teléfono asociado al servicio y seleccionar la opción de video llamada un diseño abierto que permitirá pensar únicamente en el contenido que se desea ofrecer ya sea directo, diferido o Video Call Center. La tecnología 3G provee al iPhone acceso rápido a Internet y al correo electrónico a través de redes celulares en todo el mundo permitiendo navegar la Web, descargar correos electrónicos, recibir coordenadas y mirar videos, incluso cuando estás atendiendo una llamada. Multi-Touch: Con pantalla Multi-Touch y software innovador el iPhone permite controlar todo con sólo usar los dedos, permitiendo escribir por medio del teclado predictivo, desplazarse través de álbumes de música y fotos con un toque ligero de los dedos; además amplía y reduce una sección de una página web GPS: La tecnología GPS y el software del iPhone se juntaron para crear una nueva dimensión en mapas móviles fija rápidamente tu posición sigue su recorrido de forma interactiva a medida que avanzas y usa aplicaciones que aprovechan al máximo la velocidad y precisión del GPS Acelerómetro El iPhone responde al movimiento a través de un acelerómetro incorporado, cuando se rota el iPhone de la posición vertical a horizontal el acelerómetro detecta el movimiento y cambia la pantalla según sea el caso de esta forma se podrá ver todo el ancho de una página web, visualizar una foto en las proporciones adecuadas, etc. Sensores El iPhone incluye dos pequeños sensores que recogen señales del ambiente y ajustan la pantalla según sea el caso; permitiendo maximizar la duración de la batería: • Sensor de luz ambiental El sensor de luz ambiental del iPhone aclara la pantalla automáticamente cuando se encuentra a luz del sol o en una habitación luminosa y la atenua en lugares más oscuros • Sensor de proximidad Cuando acercas el iPhone a tu oído el sensor de proximidad apaga inmediatamente la pantalla para ahorrar energía y prevenir toques accidentales Teclado El teclado inteligente y basado en software de iPhone hace más de lo que un teclado físico puede hacer aparece sólo cuando se necesita y se adapta a cualquier aplicación y cambia sus teclas para que puedas escribir en 21 idiomas
Protocolos El iPhone puede conectarse a redes VPN que empleen los protocolos L2TP, PPTP o Cisco IPSec operando tanto en conexiones Wi-Fi como en conexiones a redes de datos de telefonía móvil. Las VPN se utilizan en empresas para poder comunicar información privada de forma segura a través de una red no privada; por ejemplo puede necesitar configurar una VPN para acceder al correo electrónico de su trabajo en el iPhone El iPhone funciona con servidores VPN que admiten los siguientes protocolos y métodos de autenticación: Tipo de VPN
Autenticación por usuario / máquina
L2TP / IPSec
Usuario Máquina
PPTP
Usuario
Cisco IPSec VPN
Usuario Máquina
Métodos de autenticación admitidos Contraseña MSChapV2 RSA SecurID CRYPTOCard Shared Secret Contraseña MSChapV2 RSA SecurID CRYPTOCard Contraseña RSA SecurID CRYPTOCard Certificado Shared Secret Certificado