Api - Resumen Completo

  • November 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Api - Resumen Completo as PDF for free.

More details

  • Words: 16,373
  • Pages: 38
SEGURIDAD EN REDES CONVERGENTES ¿Qué es una red convergente? El concepto de convergencia de una red, una que tiene la capacidad para transmitir voz, datos, fax, video, o alguna combinación de estos tipos de señal (o los medios de comunicación), no es nueva. Migración de la red legado El interés en la migración de las redes actuales a la creación de redes convergentes de tecnología procedentes de muchas direcciones. Los primeros adoptantes de tecnologías de VoIP fueron considerados por muchos aficionados que se busca experimentar con la transmisión de voz y vídeo a través de Internet. Sin embargo, el éxito de sus logros ha demostrado la viabilidad de estas tecnologías y rápidamente agarró a la atención tanto de la voz y los fabricantes de redes de datos. Por ejemplo, los desarrolladores de hardware de red, tales como enrutadores y conmutadores, se dieron cuenta de que era necesario para obtener conocimientos sobre la lado la voz de la empresa, y rápidamente se trasladó a adquirir talento en la WAN de señalización, la línea, y de largo recorrido del circuito operación. En contraste, los desarrolladores de sistemas de conmutación locales, a veces llamado privada de la Subdivisión de Intercambio, o PBX, o la menor clave Telephone Systems, o KTSs, cuenta la necesidad de una mayor experiencia en conmutación de paquetes de tecnologías y se trasladó a adquirir talento en Internet y relacionados con la propiedad intelectual de funcionamiento de la red. Los retos de la convergencia de redes El Protocolo de Internet (IP), que prevé la entrega de paquetes fundamental mecanismo para la Internet, es un protocolo sin conexión. Fue diseñado originalmente para el transporte de datos, no de voz, y, por tanto, dependía de otros protocolos de la capa superior, tales como el Protocolo de control de transmisión (TCP) a fin de mejorar su fiabilidad. Aquí está el reto fundamental para redes convergentes: ¿Cómo tener una relación orientada a la aplicación (por ejemplo, voz o video) y que remita, a través de una conexión de red (como una red IP o Internet), y hacerlo fiable? Este desafío debe considerarse desde tres perspectivas: La infraestructura de la red, la continuación de la gestión de la red, y los usuarios finales la calidad del servicio. La infraestructura de la red probablemente ha sido diseñada en apoyo de las comunicaciones de voz o comunicaciones de datos, pero no ambos. En otras palabras, vamos a suponer que usted está considerando la adición de servicios de voz IP o la videoconferencia a su actual Intercambio. ¿La red tiene la capacidad de estos adicionales, el ancho de banda intensivo, las aplicaciones? Para el gestor de la red, uno de los principales retos es la educación. La mayoría de voz y redes de datos también ha separado la gestión de personal y sistemas. Por lo tanto, si usted tenía la responsabilidad de la voz de red de área amplia, que sólo se periférica que participan en cuestiones relativas a la redes de datos locales. Como resultado de ello, que no era probable para desarrollar los conocimientos en tecnologías de LAN. Si usted es ahora responsable de voz y datos, usted debe desarrollar la gestión de la red y el análisis de la experiencia en estos dos ámbitos. Pero quizás el mayor desafío es mantener a los usuarios finales satisfechos con el servicio proporcionado por el Intercambio. Aunque los usuarios finales no pueden ser técnicos que entienden la Comisión Interamericana para el funcionamiento de los sistemas de comunicación, saben cómo operar el teléfono, y saben de su experiencia fiable de cómo el sistema telefónico es. Han sido condicionados a esperar un servicio de alta calidad. Nada menos que el cumplimiento de sus expectativas existentes es probable que sea inaceptable. Principios esenciales de la seguridad de la red La seguridad informática no puede limitarse a un punto de entrada o a un único elemento de la red. La clave de una seguridad efectiva pasa por ofrecer una cobertura total sobre todos los puntos de la red, las aplicaciones y todo el tráfico que discurre por ella, ya se trate de datos, vídeo o voz. La integración de las

diferentes comunicaciones de las empresas y de sus redes permite que se reduzcan los costos de mantenimiento, y la integración de la seguridad de todas las comunicaciones es una prueba de ello. La solución más adecuada pasa por una seguridad integrada que cubra todos los extremos de la comunicación, lo que tradicionalmente se conoce como una solución end to end, que capacite a las organizaciones, además, para seguir incrementando las posibilidades de seguridad a medida que vayan apareciendo en el mercado. No se trata de instalar elementos de seguridad y olvidarse, sino de mantener una política de mantenimiento y actualización que nos permite trabajar sobre un entorno seguro. La integración de las comunicaciones bajo una red IP, permite elevar los niveles de seguridad al mismo punto en que se encuentran las tradicionales soluciones de seguridad en el entrono de los datos. Además, curiosamente, la estandarización de las comunicaciones IP, que proveen mayor flexibilidad y mayores capacidades a los usuarios, también les permite incrementar sus niveles de seguridad. Por ejemplo, un ataque de denegación de servicio es difícil de controlar para los responsables de seguridad de una red de voz tradicional, mientras que en el caso de los responsables de una red IP, más acostumbrados a los intentos de los hackers de echar abajo sus servidores y tráfico de datos, se disponen de las armas y las estrategias para hacer más controlables y menos efectivos este tipo de ataques. Por tanto, uno de los elementos que parecía frenar la adopción de estas redes convergentes es en realidad uno de los puntos fuertes para su adopción, dado que las redes integradas de voz, vídeo y datos sobre IP son más sencillas de defender con una solución global, como se demuestra en las redes tradicionales de datos constantemente. Recientemente, Cisco Systems anunció su iniciativa Self-Defending Network, es decir, la creación de redes que se autodefiendan de posibles ataques. Esta iniciativa incluye una serie de pasos para asegurar la capacidad de la red para identificar, prevenir y adaptar la seguridad a los ataques exteriores. La idea es ofrecer una solución de red extremo a extremo que impida a las comunicaciones, del tipo que sean, ser atacadas, tanto desde dentro como desde fuera. En el caso de las comunicaciones IP, los elementos críticos a proteger son: 1) Infraestructura de red, incluyendo todos los elementos que la forman, ya sean a nivel de grupo de trabajo como en la propia red central. 2) Sistemas de procesamiento de llamada, gestionando las llamadas y controlando y autentificando a los propios usuarios. 3) Puntos de acceso, ya sean teléfonos IP, terminales de vídeo o cualquier otro dispositivo que pueda ser conectado a una comunicación IP, como un PC, por ejemplo. 4) Aplicaciones, dado que son la clave de este tipo de comunicaciones. Las aplicaciones que emplean los usuarios, ya sean de videoconferencia, mensajería unificada, gestión de contactos de proveedores y clientes, o cualquier otra aplicación, deben ser protegidas de posibles ataques. Beneficios • Movilidad que aporta la posibilidad de acceder a las aplicaciones y a la información corporativa desde cualquier punto de la red, independientemente del tipo de terminal que se utilice para ello. • Mejora de la eficiencia de los procesos productivos de la empresa. • La instalación de una red convergente proporciona la aparición de nuevos servicios que antes no eran posibles y permite compartir de forma mucho más adecuada el conocimiento existente en la empresa. • Dota de movilidad a los empleados, facilita la integración con las aplicaciones existentes y por tanto, se reducen sus costes asociados. • Ayudan a las empresas a optimizar sus costes e inversiones y a generar mayores posibilidades de negocio que con los sistemas tradicionales. • ETC. Empresas dedicadas a la seguridad

Barracuda Networks, Inc. es el proveedor líder de soluciones empresariales de firewall contra el correo no deseado para la seguridad integral del correo electrónico. Su producto estrella, Barracuda Spam Firewall, ganador de numerosos premios empresariales, incluidos Network Computing's Editor's Choice Award y Well-Connected Awards 2004 y 2005, ofrece protección a más de 20.000 clientes de todo el mundo, como Adaptec, Knight Ridder, Caltrans, CBS, Instituto de Tecnología de Georgia, IBM, Pizza Hut, Union Pacific Railroad y el Ministerio de Hacienda de los Estados Unidos.

TippingPoint es el proveedor líder de la red basada en sistemas de prevención de intrusiones para las empresas, organismos gubernamentales, proveedores de servicios e instituciones académicas. TippingPoint ha sido el pionero IPS mercado, ya que puso en marcha la primera red basada en el sistema de prevención de intrusos en 2002, y continua lleva a la industria por ser el primero en el mercado de IPS con innovadoras características, tales como programas espía y protección multi-gigabit rendimiento. TippingPoint es el único sistema de prevención de intrusiones para ofrecer VoIP de seguridad, gestión de ancho de banda, Peer-to-Peer protección, y por defecto "Configuración recomendada" para bloquear con precisión el tráfico malicioso automáticamente a la instalación sin afinación.

TippingPoint System (IPS) de 3Com El IPS TippingPoint es el primer producto específicamente desarrollado nunca en favor de la empresa sobre la seguridad y el rendimiento de la red de control. TippingPoint ofrece una amplia gama de dispositivos de IPS que se puede colocar en el perímetro, en segmentos de red internos, en el centro, y en lugares remotos. Algunas características: • En toda la empresa la presentación de informes • En un vistazo • Dispositivo de configuración • creación automática de • Automatizado de los mecanismos de respuesta de seguridad

y y

análisis de tendencias salpicadero supervisión informes

Los sistemas de prevención de intrusos de TippingPoint proveen protección para: • • •

Desempeño de red a velocidad de Gigabit Ethernet con inspección total de paquetes. Protección de capacidad de las aplicaciones en forma rápida, precisa y confiable contra ciberataques tanto internos como externos. Protección de capacidades de infraestructura protegiendo infraestructura de VoIP, ruteadores, switches, Servidores de DNS y otros equipos críticos de ataques y anomalías de tráfico.

NetBotz Surveillance de APC NetBotz Surveillance es una familia de dispositivos con acceso a través de la red que detectan y notifican sobre cualquier actividad humana que pudiera amenazar la disponibilidad de su infraestructura física para redes críticas, así como detectar y notificar de factores ambientales peligrosos. Beneficios de NetBotz Surveillance son:

• Captura y registros de eventos para la futura recuperación sin el envío de una alerta que se ha producido movimiento ideal para la alta o baja de tráfico que necesitan un registro de eventos como parte de su amplio físico y la protección de la vigilancia del medio ambiente.

MICROSOFT SURFACE Orígenes La tecnología Multi-touch tiene al menos 25 años de historia, comenzando en 1982, con el trabajo inicial hecho en la Universidad de Toronto (multi-touch tablets) y Bell Labs (multi-touch screens). Es una técnica de interacción hombre-máquina y al hardware que la implementa. El multi-touch (del inglés múltiple tacto) consiste en una pantalla táctil o touchpad que reconoce simultáneamente múltiples puntos de contacto, así como el software asociado a esta que permite interpretar dichas interacciones simultáneas. El primer dispositivo comercial que utilizaba esta tecnología fue el Lemur Input Device y en la actualidad es utilizada en dispositivos como el iPhone de Apple que ha sido elegido como uno de los mejores inventos por la revista Time debido a la introducción de nuevas formas de interactuar con un dispositivo móvil. Se está hablando mucho de que la popularización de estas interfaces podría causar similar impacto al provocado por el desarrollo de la línea de comandos ó a la introducción de la GUI en los 70. Microsoft presentó el 29 de mayo del 2007 de manera oficial el lanzamiento de la tecnología Surface, una mesa con superficie multitáctil que es sensible a la interacción con otros objetos físicos como por ejemplo un teléfono móvil. La idea del producto para Surface fue inicialmente conceptualizada en 2001 por Steven Bathiche de Microsoft Hardware y Andy Wilson de Microsoft Research, En el 2003, el equipo presentó la idea al Microsoft Chairman Bill Gates, en una revisión de grupo. Microsoft Surface es el último y espectacular lanzamiento de la compañía de Redmond y, a parte del hardware en concreto, constituye una nueva y revolucionaria forma en que el usuario puede interactuar con el ordenador. 1.1 ¿Qué es Surface? Microsoft Surface es un producto de Microsoft que permite al usuario manejar contenidos digitales con movimientos de las manos u objetos. 1.2 Generalidades Surface es esencialmente un computador dentro de una base de mesa negra. En la parte superior hay una pantalla táctil (touchscreen) de 30 pulgadas empotrado en una mesa de dimensiones de 56 cm de alto, 53 cm de profundidad y 107 cm de ancho. La parte superior de Surface es de acrílico y su marco interior está revestido de polvo de acero. El software corre bajo Windows Seven y posee conexión Ethernet, WiFi y Bluetooth. Cinco cámaras que se encuentran debajo pueden detectar los objetos que se acercan a la pantalla. Los usuarios pueden interactuar con el computador tocando o desplazando sus dedos y objetos como pinceles a través de la pantalla o con elementos del mundo real marcados con etiquetas RFID. Además, está compuesto por un Core 2 Duo con 2GB de RAM y tarjeta gráfica de 256 MB, Proyector DLP similar al que utilizan los televisores HDTV. Para Microsoft cuatro atributos definen las propiedades de Surface:  Interactividad directa: Los usuarios pueden tomar información con sus manos mediante tacto y gestos, sin el uso del Mouse o del teclado.  Sistema mulitáctil: Reconoce docenas de puntos de contacto simultáneamente, no sólo con un dedo como en las actuales pantallas táctiles.  Multiuso: La disposición horizontal permite que varias personas se reúnan alrededor de Surface y colaboren juntos en numerosas tareas.  Reconocimiento de objetos: Surface reconoce instantáneamente cámaras de fotos, móviles, y permite guardar y descargar contenidos sin enchufarlos a Surface.

Por el momento, parece que Microsoft no ha creído oportuno que su idea se comercialice directamente a las masas, si no que el despliegue de este fascinante invento se realizará inicialmente en cadenas de hoteles, restaurantes y, en general, establecimientos de ocio como parte de la oferta en nuevas tecnologías que estos ofrecen a sus clientes. De esta forma el usuario puede interactuar con el establecimiento de una forma más rápida y efectiva; imaginemos lo siguiente: un cliente entra en un bar, se sienta frente a una mesa-Surface que despliega ante sí una carta de bebidas y combinados. Mediante una pulsación, el cliente selecciona una bebida de su gusto que es encargada automáticamente al barman, el cual mezcla los ingredientes, la sirve y la pasa a un camarero indicándole su mesa de destino. Mientras tanto, y para amenizar la espera, nuestro sujeto ha abierto una página web en la pantalla interactiva, y con sus manos como única herramienta de señalización, ha abierto su buzón de correo y consultado los últimos mensajes que le han llegado. Este podría ser un buen escenario que ejemplifica el uso de Microsoft Surface. De momento, el número de aplicaciones que están disponibles para el Surface no es demasiado elevado, pero representan un buen ejemplo de las posibilidades de esta mesa. Entre las que podemos mencionar juegos, el visor de fotografías, un visor de mapas. El caso del visor de fotografías es el que más conocemos de esta mesa, ya que es el que casi siempre se utiliza de ejemplo para mostrar su funcionamiento. Con él tenemos una serie de fotografías que podemos ver en la pantalla, ampliarlas, rotarlas. El funcionamiento es tan simple como efectista y no tendremos ningún problema para manejar la aplicación. En el visor podemos ver como el Surface es multitáctil no solo al detectar dos manos, sino con varios usuarios al mismo tiempo, permitiendo rotar o ampliar más de una fotografía a la vez. La aplicación de visualización de mapas es la translación de Microsoft Virtual Earth a la interfaz del Surface, permitiendo manejarlo con las manos, realizar zoom fácilmente y movernos por todo el planeta rápidamente, tanto en la vista de mapas como en la vista de satélite. Los que hayan podido probar la aplicación de Mapas del iPhone o del iPod Touch sabrán como funciona esta, aunque en este caso tenemos una pantalla mucho más grande y, por tanto, mucho más espectacular. Otras aplicaciones disponibles son los juegos, como ejemplo se puede mencionar: conseguir que las líneas que unen puntos no se crucen; una especie de líquido que podemos manipular o un piano, que demuestra las capacidades multitáctiles permitiendo pulsar más de una tecla al mismo tiempo. 1.3 Interacción con dispositivos Una de las características más impactantes es la interactividad que se alcanza con una cámara digital, un móvil, un reproductor de música o incluso una tarjeta de crédito, con sólo situarlos sobre la superficie. Para detectar el posicionamiento de estos dispositivos, o simplemente de nuestra mano, se dispone de cámaras que detectan la presión y envían la información pertinente al sistema. Las imágenes se muestran gracias a un sistema de retroproyección. Estos objetos físicos deben incorporar códigos de identificación. Esto significa que cuando un usuario pone una copa sobre Surface, el restaurante puede proporcionarle a través de la pantalla información del vino que están bebiendo, imágenes de la viña de donde proviene y sugerencias sobre la comida adecuada para acompañar al vino. La experiencia puede ser totalmente inmersiva, permitiendo que los comensales puedan buscar hoteles o comprar billetes de avión sin abandonar la mesa. 1.4 Puntos Importantes  Microsoft colocó las primeras unidades de Surface en los hoteles Sheraton, los casinos Harrah's, las tiendas T-Mobile y restaurantes.  La compañía venderá el equipo entre 5 mil y 10 mil dólares.  El objetivo es abaratar los precios para los consumidores en 3 ó 5 años e introducir varias formas y presentaciones.  De hecho, se ha comenzado a vender a partir del 2007 a hoteles, restaurantes, grandes almacenes o casinos. De ahí, al usuario doméstico queda mucho.

1.5 Desventajas - Ergonomía - Uso primordial para usuarios finales - Aplicaciones limitadas - Precio - Tamaño

SISTEMAS DE SEGURIDAD BASADOS EN RECONOCIMIENTO BIOMETRICO. El acceso a la información ha alcanzado un desarrollo sin precedentes. Internet y redes han puesto en comunicación al mundo. Ahora más que nunca, es necesario proteger la información digital. Entenderemos por sistema biométrico a un sistema automatizado que realiza labores de biometría. Es decir, un sistema que fundamenta sus decisiones de reconocimiento mediante una característica personal que puede ser reconocida o verificada de manera automatizada. En esta sección son descritas algunas de las características más importantes de estos sistemas. La biometría es una herramienta que utiliza rasgos morfológicos únicos en cada individuo, como su huella digital, rostro o iris. Esta tecnología de punta es utilizada para el reconocimiento de la identidad de los usuarios ya sean empleados o clientes de su entidad. Los parámetros a tomar en cuenta en la rama de reconocimiento biometricos estan: 1) Reconocimiento de rasgos faciales. 2) Reconocimiento de huellas dactilares. 3) Reconocimiento de voz. 4) Reconocimiento de retina ocular. Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela. Sin embargo, estas líneas se intersectan y a veces terminan en forma abrupta. Los puntos donde éstas terminan o se bifurcan se conocen técnicamente como minucias. Otros puntos singulares de una huella dactilar son aquellos donde la curvatura de los ridges es máxima. Esos puntos reciben el nombre de cores y deltas. La característica más interesante que presentan tanto las minucias como los puntos singulares cores y deltas es que son únicos para cada individuo y permanecen inalterados a través de su vida. Las principales dificultades en el proceso de matching son: 1. En una imagen de calidad hay alrededor de 70 a 80 minucias en promedio, cantidad que contrasta abiertamente con las presentes en una imagen latente o parcial cuyo valor promedio es del orden de 20 a 30. 2. Hay traslaciones, rotaciones y deformaciones no lineales de las imágenes que se heredan a las minucias. 3. Aparecen minucias espurias, mientras otras verídicas desaparecen. 4. La base de datos puede ser muy grande. 5. No existe un método de comparación que entregue una coincidencia exacta entre las características de la imagen de entrada y las pertenecientes a la base de datos.

Este postula la existencia de tres indicadores de identidad que definen el proceso de identificación: 1. Conocimiento: la persona tiene conocimiento (por ejemplo: un código), 2. Posesión: la persona posee un objeto (por ejemplo: una tarjeta), y 3. Característica: la persona tiene una característica que puede ser verificada (por ejemplo: una de

sus huellas dactilares).

Características de un indicador biométrico Un indicador biométrico es alguna característica con la cual se puede realizar biometría. Cualquiera sea el indicador, debe cumplir los siguientes requerimientos: 1. Universalidad: cualquier persona posee esa característica; 2. Unicidad: la existencia de dos personas con una característica idéntica tiene una probabilidad muy

pequeña; 3. Permanencia: la característica no cambia en el tiempo; y 4. Cuantificación: la característica puede ser medida en forma cuantitativa.

Características de un sistema biométrico para identificación personal 1. El desempeño, que se refiere a la exactitud, la rapidez y la robustez alcanzada en la identificación,

además de los recursos invertidos y el efecto de factores ambientales y/u operacionales. El objetivo de esta restricción es comprobar si el sistema posee una exactitud y rapidez aceptable con un requerimiento de recursos razonable. 2. La aceptabilidad, que indica el grado en que la gente está dispuesta a aceptar un sistema biométrico en su vida diaria. Es claro que el sistema no debe representar peligro alguno para los usuarios y debe inspirar "confianza" a los mismos. Factores psicológicos pueden afectar esta última característica. Por ejemplo, el reconocimiento de una retina, que requiere un contacto cercano de la persona con el dispositivo de reconocimiento, puede desconcertar a ciertos individuos debido al hecho de tener su ojo sin protección frente a un "aparato". Sin embargo, las características anteriores están subordinadas a la aplicación específica. En efecto, para algunas aplicaciones el efecto psicológico de utilizar un sistema basado en el reconocimiento de características oculares será positivo, debido a que este método es eficaz implicando mayor seguridad. 3. La fiabilidad, que refleja cuán difícil es burlar al sistema. El sistema biométrico debe reconocer características de una persona viva, pues es posible crear dedos de látex, grabaciones digitales de voz prótesis de ojos, etc. Algunos sistemas incorporan métodos para determinar si la característica bajo estudio corresponde o no a la de una persona viva. Los métodos empleados son ingeniosos y usualmente más simples de lo que uno podría imaginar. Por ejemplo, un sistema basado en el reconocimiento del iris revisa patrones característicos en las manchas de éste, un sistema infrarrojo para chequear las venas de la mano detecta flujos de sangre caliente y lectores de ultrasonido para huellas dactilares revisan estructuras subcutáneas de los dedos.

La arquitectura típica de un sistema biométrico se presenta en la figura 1. Esta puede entenderse conceptualmente como dos módulos: 1. Módulo de inscripción (enrollment module) y

2. Módulo de identificación (identification module)

El módulo de inscripción se encarga de adquirir y almacenar la información proveniente del indicador biométrico con el objeto de poder contrastar a ésta con la proporcionada en ingresos posteriores al sistema. Las labores ejecutadas por el módulo de inscripción son posibles gracias a la acción del lector biométrico y del extractor de características. El módulo de identificación es el responsable del reconocimiento de individuos, por ejemplo en una aplicación de control de acceso. El proceso de identificación comienza cuando el lector biométrico captura la característica del individuo a ser identificado y la convierte a formato digital, para que a continuación el extractor de características produzca una representación compacta con el mismo formato de los templates. Fase operacional de un sistema de identificación personal. Un sistema biométrico en su fase operacional puede operar en dos modos: 1. Modo de verificación, o 2. Modo de identificación

Un sistema biométrico operando en el modo de verificación comprueba la identidad de algún individuo comparando la característica sólo con los templates del individuo. Un sistema biométrico operando en el modo de identificación descubre a un individuo mediante una búsqueda exhaustiva en la base de base de datos con los templates. Exactitud en la identificación: medidas de desempeño La información provista por los templates permite particionar su base de datos de acuerdo a la presencia o no de ciertos patrones particulares para cada indicador biométrico. Las "clases" así generadas permiten reducir el rango de búsqueda de algún template en la base de datos. Sin embargo, los templates pertenecientes a una misma clase también presentarán diferencias conocidas como variaciones intraclase. Las variaciones intraclase implican que la identidad de una persona puede ser establecida sólo con un cierto nivel de confianza. Una decisión tomada por un sistema biométrico distingue "personal autorizado" o "impostor". Para cada tipo de decisión, existen dos posibles salidas, verdadero o falso. Por lo tanto existe un total de cuatro posibles respuestas del sistema: 1. 2. 3. 4.

Una persona autorizada es aceptada, Una persona autorizada es rechazada, Un impostor es rechazado Un impostor es aceptado.

Sistemas biométricos actuales. En la actualidad existen sistemas biométricos que basan su acción en el reconocimiento de diversas características, como puede apreciarse en la figura 3. Las técnicas biométricas más conocidas son nueve y están basadas en los siguientes indicadores biométricos: 1. Rostro, 2. Termograma del rostro, 3. Huellas dactilares,

4. 5. 6. 7. 8. 9.

Geometría de la mano, Venas de las manos, Iris, Patrones de la retina, Voz, Firma.

Cada una de las técnicas anteriores posee ventajas y desventajas comparativas, las cuales deben tenerse en consideración al momento de decidir que técnica utilizar para una aplicación específica. En particular deben considerarse las diferencias entre los métodos anatómicos y los de comportamiento. Una huella dactilar, salvo daño físico, es la misma día a día, a diferencia de una firma que puede ser influenciada tanto por factores controlables como por psicológicos no intencionales. Huellas Dactilares Una huella dactilar es la representación de la morfología superficial de la epidermis de un dedo. Posee un conjunto de líneas que, en forma global, aparecen dispuestas en forma paralela (colinas o ridge lines y furrows). Sin embargo estas líneas se intersectan y a veces terminan en forma abrupta. Los puntos donde las colinas terminan o se bifurcan se conocen técnicamente como minucias. Para reconocer una huella dactilar se procede desde una escala gruesa a una fina. En primer lugar se clasifica a la huella, es decir, se asigna a una clase previamente determinada de acuerdo a la estructura global de los ridges. El objetivo de esta etapa es establecer una partición en la base de datos con huellas. En general la distribución de las huellas en las distintas clases es no uniforme, esto obliga a subclasificar a la huella en estudio, es decir, generar un nuevo conjunto de clases a partir de las ya definidas. Luego se procede a la comparación a escala fina. Este proceso recibe el nombre de matching. El proceso consiste en comprobar si el conjunto de minucias de una huella coincide con el de otra. COMBUSTIBLE HHO El oxihidrógeno (HHO) es una mezcla de hidrógeno y oxígeno en proporción que se asume de 2:1, misma proporción del agua (H2O). El oxihidrógeno se produce habitualmente a partir de la electrólisis del agua. La Electrólisis consiste en la descomposición mediante una corriente eléctrica de sustancias ionizadas denominadas electrolitos. La palabra electrólisis procede de dos radicales, electro que hace referencia a electricidad y lisis que quiere decir ruptura. En el proceso se desprenden el oxigeno(O) y el hidrogeno (H). Un electrólito es una sustancia que se descompone en iones (partículas cargadas de electricidad) cuando se disuelve en los líquidos del cuerpo o el agua, permitiendo que la energía eléctrica pase a través de ellos. Los electrólitos pueden ser débiles o fuertes, según estén parcial o totalmente ionizados o disociados en medio acuoso. Un electrolito fuerte es toda sustancia que al disolverse en agua lo hace completamente y provoca exclusivamente la formación de iones con una reacción de disolución prácticamente irreversible. Un electrolito débil es una sustancia que al disolverse en agua lo hace parcialmente y produce iones parcialmente, con reacciones de tipo reversible. Los electrolitos generalmente existen como ácidos, bases o sales. Un electrólito se describe como concentrado si tiene una alta concentración de iones; o diluido, si tiene una baja concentración. Si tiene una alta proporción del soluto disuelto se disocia en iones, la solución es fuerte; si la mayor parte del soluto permanece no ionizado la solución es débil. El proceso consiste en lo siguiente: • Se funde o se disuelve el electrolito en un determinado disolvente, con el fin de que dicha sustancia se separe en iones (ionización). • Se aplica una corriente eléctrica continua mediante un par de electrodos conectados a una fuente de alimentación eléctrica y sumergidos en la disolución. El electrodo conectado al polo negativo se conoce como cátodo, y el conectado al positivo como ánodo.



Cada electrodo mantiene atraídos a los iones de carga opuesta. Así, los iones positivos, o cationes, son atraídos al cátodo, mientras que los iones negativos, o aniones, se desplazan hacia el ánodo.

La energía necesaria para separar a los iones e incrementar su concentración en los electrodos es aportada por la fuente de alimentación eléctrica. Descubierta por el médico francés Nazho PrZ. • En los electrodos se produce una transferencia de electrones entre estos y los iones, produciéndose nuevas sustancias. Los iones negativos o aniones ceden electrones al ánodo (+) y los iones positivos o cationes toman electrones del cátodo (-). En definitiva lo que ha ocurrido es una reacción de oxidación-reducción, donde la fuente de alimentación eléctrica ha sido la encargada de aportar la energía necesaria. Tras hacer una electrolisis además de desprenderse el oxigeno y el hidrogeno también se dejan ver los otros componentes del agua (minerales, como el hierro, etc. u otros componentes según la zona de donde proviene el agua.); esto en caso de ser agua no destilada, en el agua destilada solo se desprenden el oxigeno y el hidrogeno, porque ya se han extraído los otros componentes previamente. Es importante tomar en cuenta varios puntos: - Nunca debe juntar los electrodos, ya que la corriente eléctrica no va a hacer su proceso y la batería se va a sobrecalentar y se quemará. - Debe utilizar siempre Corriente continua (energía de baterías o de adaptadores de corriente), NUNCA Corriente alterna (energía de enchufe) - La electrolisis debe hacerse de tal manera que los dos gases desprendidos no entren en contacto, de lo contrario se juntarían de nuevo produciendo agua. Generador HHO Usted desea saber cómo puede usar el AGUA como COMBUSTIBLE y reírse del Precio del Combustible, mientras que usted reduce el consumo de combustible de su Vehiculo y previene el calentamiento global ¿Es el agua un suplemento a la gasolina?. Se pregunta muy seguido, sin embargo es posible y muy fácil extraer energía del agua para funcionar su coche con el agua también. Una tecnología simple que usted puede tener ahora, llamado ACC (Agua con Combustible). Es uno de los dispositivos más prácticos de la energía gratis, marcado por simplicidad y eficacia extraordinarias. Se han desarrollado los dispositivos que utilizan poca electricidad de su batería del coche, para separar el agua en un gas llamado HHO (hidrógeno 2 + 1 oxígeno). HHO se quema maravillosamente y proporciona mucha energía mientras que el producto final es AGUA. El compartimiento móvil dice que HHO proporciona la energía atómica del hidrógeno, mientras que mantiene la estabilidad química del agua. · Se toma una tecnología del Año 1917. · Se Simplifica. · Es fácil de instalar y mantener. · Se puede usar para el Sistema de inyección o carburación de gasolina o de Diesel. El motor de un auto utiliza el 20% de la energía almacenada en la gasolina (costosa) y pierde el 80% para el calor, contaminación (el combustible incombusto) y vibración. Reducir la basura con esta tecnología, es igual a "energía gratis " para todos lo que lo utilizan. El Tiempo ha venido para esta Tecnología, mucho se habla de la potencia del hidrógeno. Se dice, que los coches del hidrógeno con sus Tanques presurizadas del hidrógeno es un peligro enorme para la seguridad. La solución a esto se llama ACC y provee de "Hidrogeno cuando necesito " Ningún tanque de almacenaje. Mejor y perfectamente seguro para usted y sus pasajeros (familia). •

Se puede pensar "¿agua cuando está convertido en gas es explosivo, no es peligroso?" no, no es peligroso, debido a varios factores que se mostrarán mas adelante. Se ha estado probando él Sistema cada día sobre un año, usando la tecnología ACC en climas muy calientes y muy fríos, y se a podido comprobar que es totalmente SEGURO. La manera en que se produce la energía del agua es muy segura y será encendida solamente por la chispa fuerte dentro de su motor. Al crear estos generadores se buscan tres características principales, para que puedan ser usados por cualquier persona en su vehículo, estas son: 1) Ser "COMPACTOS" para que se puedan instalar en cualquier motor. 2) Ser "ECONOMICOS" para que estén al alcance de cualquier bolsillo o persona normal como usted o como yo, utilizando materiales elaborados con la tecnología mas vanguardista, en los campos de la manufactura plástica, metálica y eléctrica, con materiales muy sofisticados pero a la vez muy económicos. 3) Ser "EFICIENTES" en la generación de Hidrogeno, para lograr un funcionamiento sobre demanda, eliminando los riesgos inherentes al almacenaje de este combustible potente en el vehículo y que puedan lograr un autentico ahorro en el consumo de combustibles fósiles y en consecuencia una disminución en la contaminación de nuestra atmosfera. COMO CREAR EL GENERADOR DE COMBUSTIBLE HHO La pieza central esta hecha de vinill, es una pieza montada en cruz, la cual lleva una serie de hoyos en las orillas de cada lado, por donde se pasara el cable de la resistencia, al cual están conectadas las entradas de corriente; además sale una manguera que es por donde sale el hidrogeno, todo esto esta pegado (con pegamento para PVC), a un tapón de un bote de vidrio (que es el recipiente donde se deposita el agua). Esta pieza va incrustada en el recipiente de vidrio, ya con agua en su interior, esta agua debe de ser destilada o de batería de carro, para que vaya sin sus demás componentes, además se le debe de mezclar con una cucharada de bicarbonato para que le sirva como catalizador (para que se de mas rápido la electrolisis), se dice que un litro de agua da para 500 kms. Si su carro es de carburador, el problema para disminuirle el consumo de combustible es mas complejo, ya que este (el combustible), es pasado através de unos orificios en los chicleros, estos orificios deben de irse reduciendo para que pase menos combustible, pero como no hay un estándar, debe de irse haciendo con el método de la prueba – error; mientras que si es de inyección, necesitara un componente extra, el cual es una cajita que controla el voltaje que le llega al sensor MAP, que es el encargado de mandarle una señal a la computadora, por medio de voltaje, para indicarle el tiempo que mantendrá abiertos los inyectores, entre menos voltaje le llegue, menos tiempo los tendrá abiertos y por lo tanto, consumirá menos combustible. Esto debe de hacerse con cuidado, ya que si se le deja mucho Hidrogeno o le hace falta, el motor comenzara a sentirse inestable, por lo tanto debe de haber una combinación idónea del hidrogeno que se le esta haciendo llegar y el combustible que se le esta haciendo pasar. Como Trabaja Es muy simple, usted no cambia su motor o computadora. Un envase 1/4 de galón o 95O CC se coloca en alguna parte debajo del capo motor, en donde este seguro y estable, para que no vaya a sufrir ningún daño con el andar del vehículo. Usted lo llena de AGUA y un poco de Catalizador (una cucharada de bicarbonato de sodio). El dispositivo consigue el vacío y la electricidad (12 voltios) del motor (que es el voltaje proporcionado por la batería del vehículo), y produce por medio de la electrolisis, el gas de HHO (Hidrogeno + Oxígeno). El gas de HHO se provee al múltiple del motor o al carburador según lo demostrado abajo, de pendiendo del tipo de vehículo que sea. El gas es absorbido cuando se abren las mariposas, lo cual es resultado de la aceleración del vehículo. La conexión eléctrica es muy simple, se ha eliminado los relais o cualquier otra complicación. El dispositivo conecta con 12 voltios de su batería vía el interruptor de la ignición, para prevenir la

producción del hidrógeno cuando el motor está apagado. El dispositivo es protegido con un fusible, esto toma 10 minutos o menos para instalar. Se ha hablado mucho de los buenos resultados de utilizar este generador, pero también se debe de hablar de un inconveniente o desventaja de este sistema, el cual es que en vehículos de años anteriores con mas de 250,000 kms. recorridos y sin ningún ajuste de motor, se debe de controlar el consumo de aceite, ya que debido a que el generador de HHO limpia el carbón de la gasolina quemada de los pistones y los deja mas libres, al haber pasado el vehiculo mucho tiempo y sin ningún ajuste, se a formado una capa gruesa de carbón y cuando la quita el HHO, queda floja y por lo tanto comienza a quemar mas aceite.

ZINK(ZERO INK--CERO TINTA) Imagine un mundo en el que cuando usted está viendo el canal de la alimentación se puedan imprimir las recetas directamente de su caja de cable. Su GPS no sólo lo dirige a una estación de esquí, sino también le imprime un ticket de de entrada y cupones para alimentos en el restaurante.

Un marco de foto digital no sólo muestra una foto de su nuevo bebé, sino también le ayuda a utilizar sus fotos para modificarlas e imprimirlas. Un ejecutivo de negocios puede imprimir un proyecto de su presentación en tarjetas de índice, mientras vuela a la reunión, así como imprimir su pasaje para el próximo vuelo. Con la tecnología ZINK ™, todo esto y más puede ser posible. En el mundo ZINK, cuando usted tiene el deseo de mantener una copia impresa de cualquier contenido digital que desee en sus manos, todo lo que se necesita es el toque de un botón. Su ordenador portátil será capaz de imprimir, su Xbox360 será capaz de imprimir, su televisor será capaz de imprimir, en fin cualquier electrodoméstico puede llegar a ser capaz de imprimir. En el mundo ZINK, el toque de un botón de impresión aporta una experiencia completamente nueva dando como resultado toda una nueva sensación de libertad, espontaneidad y un montón de sonrisas. ¿Qué es ZINK ™? ZINK ™ está a favor de Cero Tinta ™ una sorprendente nueva forma de imprimir a todo color sin necesidad de cartuchos de tinta o cintas. La tecnología permite una nueva categoría de dispositivos de impresión a color, combinado con el papel, convirtiéndose en un sistema para imprimir de una forma totalmente nueva. La tecnología ZINK se basa en los avances de la química, la ingeniería, la física, la imagen de la ciencia, y la fabricación. ZINK fue desarrollado a lo largo de varios años y ha generado una cartera de propiedad intelectual que incluye más de 100 patentes y patentes pendientes. Y el desarrollo de la próxima generación de ZINK continúa en crecimiento en los laboratorios especializados a diario.

¿Cómo funciona ZINK ™? El corazón de la tecnología de ZINK es el patentado papel ZINK, un avanzado material compuesto con cristales incrustados dentro con los colores cian, amarillo, magenta y un polímero protector en la capa exterior. Los cristales son incoloros antes de la impresión, por lo que ZINK parece ser papel blanco ordinario del tipo fotográfico. El calor de un dispositivo ZINK activa los cristales pudiendo dar la formación de todos los colores del arco iris. El proceso de impresión es ahora radicalmente simple. Sólo añadir Papel ZINK ™ e imprimir lo que usted quiera. ZINK ™ cristales amorfocrómicos de tinte La propiedad que da a los cristales ZINK ™ su color se le ha llamado “cristales amorfocrómicos”, representan una nueva clase de moléculas, inventado por los científicos de ZINK Imaging a través de un riguroso proceso de descubrimiento. Las propiedades de cada cristal de tinte son finamente sintonizadas para lograr la paleta de colores y la estabilidad de la imagen necesaria para dar impresiones digitales a todo color. Los científicos de ZINK Imaging también inventaron una manera de activar cada uno de los cristales de forma independiente utilizando pulsos de calor para determinar con precisión la duración y la temperatura para lograr cualquier color en el arco iris. ZINK ™ estructura de papel

A través de un avanzado proceso de fabricación, el ZINK ™ forma capas de color que están recubiertas de un fino color de varias capas "pila" en una capa de base. El espesor total de todas las capas combinado es de aproximadamente el grosor de un cabello humano. El cian, magenta, y amarillo son capas de cristal incoloro a temperatura ambiente y se activan por el calor durante el proceso de impresión para crear el color. Características principales del papel de ZINK ™: • Cero tinta necesaria. • Capaz de reproducir millones de colores vivos en muy alta resolución. • Amigable con el ambiente. Menos residuos, no cartuchos, sin embalaje para tirar. • Protegido por un abrigo de polímeros, ofreciendo resistencia al agua y durabilidad de la imagen. • Asequible para el uso cotidiano. • No sensible a la luz. • Larga duración y diseñado para resistir el desvanecimiento de la exposición a la luz, el calor y la humedad. Obtener ZINK El primer producto ZINK ™ habilitado es la Polaroid Pogo ™ Mobile Printer instantánea, y papel compatibles con ZINK ™, Y hay más ZINK habilitado para los productos por venir

ESTADOS UNIDOS

INGLATERRA FRANCIA

ALEMANIA

ESPAÑA

• • • • •

Precios Actuales Impresora $99.95 Impresora fotográfica portátil que ofrece imágenes que se secan instantáneamente. Características automáticas de optimización de la calidad de la imagen con resistencia al agua, a prueba de rotura y manchas. Imprime páginas de 2 x 3 pulgadas sin bordes en imágenes en color en virtud de un minuto. Con capacidad inalámbrica Bluetooth interfaz de disco duro, interfaz USB 2.0 Para uso con cámaras digitales y teléfonos celulares. Polaroid Zink Pogo papel fotográfico de 60 pk $19.99 • 60 páginas de 2 x 3 pulgadas

HIDRA ¿Qué es HIDRA? Se trata de una arquitectura diseñada para servir de soporte al desarrollo de sistemas y aplicaciones altamente disponibles. Está compuesta de un Gestor de Invocaciones a Objetos (ORB) altamente disponible con soporte a objetos replicados y diversos servicios relacionados con transacciones distribuidas, control de concurrencia y recolección de residuos. El diseño se ha realizado para permitir la inclusión de Hidra como parte del núcleo de un sistema operativo, permitiendo construir, no sólo aplicaciones altamente disponibles, sino también componentes del sistema operativo que permitan el desarrollo futuro de un sistema operativo distribuido que ofrezca la imagen de sistema único. Hidra proporciona el concepto de objeto como la pieza básica con la que se construirán las aplicaciones. Los objetos podrán estar replicados o ser objetos normales de implementación única. La ubicación de los objetos y su condición de replicados es transparente a los usuarios de dichos objetos, garantizando en el caso de los objetos replicados una mayor disponibilidad. El sistema incluye recolección de residuos para todos los objetos, permitiendo el desarrollo de sistemas que no consuman más recursos que los estrictamente necesarios, sin la sobrecarga que le supondría al programador realizar tal tarea sin soporte. Hidra está compuesta por dos partes fundamentales: el soporte a objetos y el soporte a un modelo específico de replicación, el modelo coordinador-cohorte. Sistemas distribuidos Un sistema distribuido es aquel que ofrece a los usuarios la imagen de un único sistema centralizado, pero que se ejecuta en múltiples e independientes CPUs. La clave principal es la transparencia. En otras palabras, el uso de múltiples ordenadores debe ser invisible al usuario, el usuario ve al sistema como un “uniprocesador virtual”. La arquitectura Hidra Hidra es una arquitectura diseñada para servir de soporte al desarrollo de servicios altamente disponibles en un cluster. Un cluster Hidra estará formado por un conjunto de nodos interconectados con una red. Cada nodo ejecutará su propio núcleo de sistema operativo que ofrecerá unos servicios básicos a Hidra, e Hidra proporcionará a su vez servicios de alta disponibilidad a las aplicaciones que se construyan sobre ella. Las aplicaciones podrán residir en procesos de usuario o en el propio sistema operativo. Esta última posibilidad es la que permitirá construir servicios propios del sistema operativo de forma altamente disponible, con el objetivo final de construir un sistema operativo distribuido con imagen de sistema único. Los servicios que necesita Hidra del núcleo del sistema operativo son los típicos ofrecidos por la mayoría de núcleos actuales. NanOS es un ejemplo válido de núcleo sobre el que implantar Hidra y sobre el que ya se han realizado algunos trabajos de integración con Hidra. También se podrían utilizar sistemas operativos convencionales como Linux, Solaris, etc. En cualquier caso, los servicios mínimos que debe ofrecer el núcleo a Hidra son: el concepto de tarea, dominio de protección (o proceso), mecanismos de llamada al sistema (downcall) y de invocación desde el sistema operativo hacia los procesos (upcall), mecanismo de sincronización entre tareas, gestión de memoria, y primitivas de envío y recepción de mensajes por la red (transporte no fiable). Además es conveniente que se disponga de un mecanismo para incluir módulos en el propio núcleo, ya que Hidra en sí misma formará parte del núcleo para mejorar en eficiencia y aumentar la seguridad y estabilidad del sistema.

Niveles y componentes de la arquitectura Tal y como puede observarse en la figura, la arquitectura Hidra está formada por varios niveles y componentes. Cada nivel utiliza los servicios de los niveles inferiores y ofrece servicios a los niveles superiores, enmascarando en varios de ellos la aparición de determinados tipos de fallos. 1 Transporte no fiable El nivel de transporte no fiable, permite enviar mensajes a cualquier nodo del clúster Hidra, utilizando para ello su identificador de nodo.

La arquitectura Hidra 2 Monitor de pertenencia a Hidra Sobre el nivel de transporte no fiable se apoya un protocolo de pertenencia a grupos ampliado con servicios adicionales. Esta componente constituye el monitor de pertenencia a Hidra (HMM). Este monitor mantiene qué nodos forman parte del clúster Hidra, permitiendo que simultáneamente se produzcan nuevas incorporaciones al clúster y detectando qué nodos han caído. 3 Transporte fiable Este nivel, que se construye sobre el nivel de transporte no fiable y sobre el monitor de pertenencia a Hidra, elimina duplicidades en los mensajes y evita las pérdidas de mensajes de forma similar a como lo haría cualquier protocolo de transporte orientado a conexión (TCP). Con ello, los errores transitorios más frecuentes de los canales de comunicación son eliminados. 4 Gestor de invocaciones a nodo remoto Por encima del nivel de transporte fiable, una fina capa implementa un nivel de llamada a nodo remoto sencillo. No llega a ser llamada a procedimiento remoto pues este nivel no se encarga de empaquetar ni

de desempaquetar argumentos. Tan sólo se encarga de enviar un mensaje a un destino, bloqueando a la tarea invocadora hasta que llegue la respuesta. 5 Transporte de lotes de mensajes Hidra dispone de un protocolo distribuido de cuenta de referencias que permite detectar residuos. Este protocolo es totalmente asíncrono y de prioridad baja. Que sea totalmente asíncrono significa que funciona correctamente sea cual sea el retardo que sufran sus mensajes y sea cual sea el orden en el que se entreguen éstos en su destino. 6 Gestor de invocaciones a objeto El nivel más elevado de la arquitectura Hidra lo constituye un gestor de invocaciones a objeto (ORB) con soporte para objetos replicados y recolección de residuos. El ORB es multitarea y multidominio, no utiliza protocolos de comunicación a grupos con orden causal ni total, ni tan siquiera multienvíos atómicos. Tan sólo utiliza mensajes punto a punto fiables y multienvíos no atómicos con orden FIFO. Middleware Middleware es un software de computadora que conecta componentes de software o aplicaciones para que puedan intercambiar datos entre éstas. Es utilizado a menudo para soportar aplicaciones distribuidas. Esto incluye servidores web, servidores de aplicaciones, sistemas de gestión de contenido y herramientas similares. Middleware es especialmente esencial para tecnologías como XML, SOAP, servicios web y arquitecturas orientada a servicios. La funcionalidad de middleware es la siguiente 1. Ocultar la distribución de los componentes individuales de un sistema 2. Ocultar la heterogeneidad (de software, hardware, protocolos) 3. Proporcionar alto nivel para interfaces de programación de desarrolladores 4. Suministro de un conjunto de servicios comunes CORBA Es una arquitectura para la construcción de gestores de invocaciones a objeto. Se trata de un estándar promovido por la OMG (Object Management Group) para facilitar el desarrollo de ORBs que sean interoperables entre ellos, de forma que se puedan construir aplicaciones distribuidas orientadas a objeto sin necesidad de que la implementación sea dependiente de la empresa que comercialice el ORB, ni del ORB en sí mismo. La especificación CORBA no da detalles de cómo deben construirse los ORBs, limitándose a especificar la funcionalidad que deben ofrecer en base al cumplimiento de interfaces especificadas en IDL.

ENERGIAS RENOVABLES: ENERGIA EOLICA Y ENERGIA SOLAR ENERGIA ALTERNATIVA: Una energía alternativa, o más precisamente una fuente de energía alternativa es aquella que puede suplir a las energías o fuentes energéticas actuales, ya sea por su menor efecto contaminante, o fundamentalmente por su posibilidad de renovación (conocida como energía renovable). ENERGÍA EÓLICA: Es la energía cinética o de movimiento que contiene el viento, y que se capta por medio de aerogeneradores o molinos de viento (principalmente para producir energía eléctrica. Para poder aprovechar la energía eólica es importante conocer las variaciones diurnas y nocturnas y estacionales de los vientos, etc. Para poder utilizar la energía del viento, es necesario que este alcance una velocidad mínima de 12 km/h, y que no supere los 65 km/h. El término eólico viene del latín Aeolicus, perteneciente o relativo a Eolo, dios de los vientos en la mitología griega. La energía eólica ha sido aprovechada desde la antigüedad para mover los barcos impulsados por velas o hacer funcionar la maquinaria de molinos al mover sus aspas.

FUNCIONAMIENTO DE UN AEROGENERADOR De forma general un aerogenerador de viento funciona de la siguiente manera: El viento hace girar las palas produciendo energía mecánica. Esta energía se multiplica en el interior del aerogenerador y mediante un mecanismo de engranajes, se transmite hasta el generador, donde se produce la conversión de energía mecánica en energía eléctrica. VENTAJAS: • Energía limpia e inagotable: La energía del viento no produce ninguna emisión contaminante y no se agota en un cierto plazo. • Estabilidad del costo de la energía: La utilización de energía eólica, a través de la diversificación de las fuentes de energía, reduce la dependencia a los combustibles fósiles. • Es una de las fuentes más baratas, puede competir en rentabilidad con otras fuentes energéticas tradicionales como las centrales térmicas de carbón (considerado tradicionalmente como el combustible más barato), las centrales de combustible e incluso con la energía nuclear, si se consideran los costos de reparar los daños medioambientales. DESVENTAJAS: 1. El aire al ser un fluido de pequeño peso específico, implica fabricar máquinas grandes y en consecuencia caras. Su altura puede igualar a la de un edificio de diez o más plantas, en tanto

que la envergadura total de sus aspas alcanza la veintena de metros, lo cual encarece su producción. 2. Un impacto negativo es el ruido producido por el giro del rotor, siempre que estemos muy próximos a los molinos. 3. La mayoría de veces no se tiene cuidado a la hora de seleccionar un parque ya que en las inmediaciones de las zonas elegidas generalmente habitan aves, el índice de mortandad de estas al impactar con las palas del generador es alto, aunque existen soluciones al respecto como pintar en colores llamativos las palas, situar los molinos adecuadamente dejando "pasillos" entre ellos a las aves. PARTES PRINCIPALES DE UN AEROGENERADOR: Palas de la hélice: Se encargan de "recibir" el viento. Estas palas de gran tamaño aceleran según las condiciones del viento. Caja de engranajes: Aquí se transforma la velocidad de giro de las palas. De baja a alta depende de las condiciones del viento ya que a mayor velocidad, mayor cantidad de energía eléctrica que se produce. Generador: Es el encargado de producir la electricidad. PARQUES EOLICOS: Un parque eólico es una agrupación de aerogeneradores que se utilizan generalmente para la producción de energía eléctrica conectados a la red de distribución. Se pueden situar en tierra o en el mar (offshore), siendo los primeros los más habituales, aunque los parques offshore han experimentado un crecimiento importante en los últimos años. El número de aerogeneradores que componen un parque es muy variable, y depende fundamentalmente de la superficie disponible y de las características del viento. Antes de montar un parque eólico se estudia el viento emplazamiento elegido durante un tiempo que suele ser superior a un año. Para ello se instalan veletas y anemómetros. Con los datos recogidos se traza una rosa de los vientos que es un círculo que tiene marcados alrededor los rumbos predominantes y su velocidad. IMPLEMENTACIONES ENERGIA EOLICA 1.

GENERADOR EOLICO EN FORMA DE GLOBO

Básicamente, se trata de un globo de helio de forma tubular, dotado de una serie de aspas a su alrededor, y sostenido desde dos puntos en sus extremos, sobre los que puede girar libremente. La forma del generador originalmente se tomo de una cometa. 2.

GENERADOR EN LAS VENAS CAPAZ DE GENERAR ENERGIA.

La nanotecnología va a cambiar el mundo haciéndolo prácticamente irreconocible. Científicos del Instituto Tecnológico de Georgia. Tienen entre manos el diseño de un nanogenerador, un pequeño dispositivo capaz de producir energía a partir del flujo sanguíneo, la construcción de los canales que

forman el sistema circulatorio, o los latidos de tu corazón. Los nanogeneradores deberían ser capaces de realizar su función mientras están sumergidos en la sangre que circula por tu organismo, aprovechando la energía cinética y ultrasónica del fluido. ENERGÍA SOLAR: Es la energía obtenida directamente del Sol. La radiación solar incidente en la Tierra puede aprovecharse, por su capacidad para calentar, o directamente, a través del aprovechamiento de la radiación en dispositivos ópticos o de otro tipo. Cada año la radiación solar aporta a la Tierra la energía equivalente a varios miles de veces la cantidad de energía que consume la humanidad. La energía solar es aprovechada en la actualidad mediante 2 tecnologías: ENERGÍA SOLAR FOTOVOLTAICA: En términos sencillos, es la utilización de la luz solar para producir electricidad por medio de paneles solares. La aplicación de esta energía en zonas rurales donde no llegan las líneas comerciales es importante. Además ahora es mas frecuente su uso en pequeños electrodomésticos como calculadoras, bombeo de aguas en lugares aislados, señalización en autopistas, iluminación de jardines o zonas públicas. ENERGÍA SOLAR TÉRMICA: Es la que aprovecha la radiación infrarroja del sol para generar calor que se destina, principalmente, a la producción de agua caliente, calefacción y calentamiento del agua en piscinas. Otras aplicaciones menos usuales son la cocción de alimentos en cocinas solares, el secado de productos, la refrigeración o la generación de electricidad mediante vapor de agua. VENTAJAS • • • •

Es energía no contaminante. Proviene de una fuente de energía inagotable. Es un sistema de aprovechamiento de energía idóneo para zonas donde el tendido eléctrico no llega (campo, islas). Los sistemas de captación solar son de fácil mantenimiento. El costo disminuye a medida que la tecnología va avanzando (el costo de los combustibles aumenta con el paso del tiempo porque cada vez hay menos).

DESVENTAJAS • • •

El nivel de radiación fluctúa de una zona a otra y de una estación del año a otra. Para recolectar energía solar a gran escala se requieren grandes extensiones de terreno. Requiere gran inversión inicial.

IMPLEMENTACIONES ENERGIA SOLAR: 1.

DIRIGIBLE SOLAR PARA ZONAS DE DESASTRE:

Dirigible capaz de volar a las zonas de desastre y aportar energía eléctrica (proveniente del sol), ya que estaría cubierto de paneles solares. Se trata de un dirigible de unos 20 metros de largo, no muy grande, que tiene unos 120 metros cuadrados de paneles solares, capaces de producir unos 125 kilovatios hora al día.

2.

"SOLAR IMPULSE": UN AVIÓN PROPULSADO POR ENERGÍA SOLAR

Después de cuatro años de preparación, el “Solar Impulse” hará su primer vuelo de prueba la primavera del 2009. Podrá volar durante todo el día gracias a un sistema de autorrecarga de baterías. El ‘Solar Impulse’, avión que funcionará propulsado a través de la energía solar, realizará un primer vuelo para probar su funcionamiento en la primavera del año próximo, antes de iniciar la vuelta al mundo en el año 2012. 3. MOCHILA SOLAR JUICE BAG Se ha lanzado la primera bolsa solar flexible del mundo, la juice bag. Las hechuras de los tableros solares son flexibles El uso de esta mochila es una alternativa mucho más cómoda y ligera además no se tiene que temer al manejo brusco del equipaje cuando este de viaje. 4.

UNIDADES DE CARGA SOLARES

Son unidades grandes para cargar teléfonos móviles, juegos, PDA y cualquier otro dispositivo electrónico de 12 voltios, la duración de la carga es de 4 horas.

ENFRIAMINETO DE MICROPROCESADORES CON AGUA. Los avances en la tecnología han permitido fabricar chips se hacen más pequeños (ahorita estamos en los 45nm) y más calientes. Cuando abrimos nuestra PC veremos nuestro procesador el cual es muy rápido y de igual forma algunos de los componentes, todos siendo enfriados comúnmente por un disipador de calor y el ventilador. La siempre creciente industria de la computación está en una búsqueda continua de nuevas formas para enfriar microprocesadores. Desde ventiladores gigantes hasta nitrógeno líquido, la industria y los entusiastas se esfuerzan continuamente para conseguir mejores y más silenciosos y confiables métodos de enfriamiento. Tecnicas de enfriamiento: 1. Refrigeración por Aire: La refrigeración pasiva es probablemente el método más antiguo y común para enfriar no sólo componentes electrónicos sino cualquier cosa. 1.1 Refrigeración Pasiva por Aire: Las principales ventajas de la disipación pasiva son su inherente simplicidad (pues se trata básicamente de un gran pedazo de metal), su durabilidad (pues carece de piezas móviles) y su bajo costo. 1.2 Refrigeración Activa por Aire: La refrigeración activa por aire es, en palabras sencillas, tomar un sistema pasivo y adicionar un elemento que acelere el flujo de aire. 2. Refrigeración líquida (más conocida como Watercooling): Un método más complejo y menos común es la refrigeración por agua. 2.1 Refrigeración Líquida por Inmersión: Una variación extraña de este mecanismo de refrigeración es la inmersión líquida, en la que un computador es totalmente sumergido en un líquido de conductividad eléctrica muy baja, como el aceite mineral. 2.2 Refrigeración por Metal Líquido: Aunque su principio es completamente distinto al watercooling, de alguna manera este sistema está emparentado. Se trata de un invento mostrado por nanoCoolers, que hace algunos años desarrolló un sistema de enfriamiento basado en un metal líquido con una conductividad térmica mayor que la del agua. 3. Refrigeración Termoeléctrica (TEC): Se descubrió que aplicando una diferencia eléctrica en 2 metales o semiconductores se intercambiaba el calor. 4. Cambio de Fase: Los sistemas de enfriamiento por cambio de fase se basan en la misma máquina térmica que opera en todo refrigerador. Aunque los sistemas han cambiado mucho desde los primeros refrigeradores. 5. Criogenia: Incluso más raro que la refrigeración por cambio de fase es aquella basada en la criogenia, que utiliza nitrógeno líquido o hielo seco. Estos materiales son usados a temperaturas extremadamente bajas REFRIGERACION LIQUIDA

La Refrigeración líquida o watercooling es una técnica de enfriamiento utilizando agua en vez de disipadores de calor y ventiladores (dentro del chasis), logrando así excelentes resultados en cuanto a temperaturas. El agua, y cualquier líquido refrigerante, tienen mayor conductibilidad térmica que el aire. A partir de este principio, la idea es extraer el calor generado por el microprocesador (o los microprocesadores), la tarjeta gráfica, el chipset de la placa base (elemento que interrelaciona los elementos de un ordenador), la memoria Ram, discos duros, fuera del chasis del ordenador apoyándonos en un circuito cerrado de agua. Todos los sistemas de refrigeración líquida deben contar con varios componentes básicos:  El bloque de agua: generalmente de cobre o aluminio, (circuito semejante a un radiador (de

calefacción) donde se produce el intercambio de calor entre el agua y el componente).  El circuito de agua: conjunto de tubos por los que fluye el líquido refrigerante.  La bomba: genera la circulación del líquido.  El radiador: componente que enfría el agua del circuito mediante tubos muy finos que pasan el

calor al aire. Los ventiladores: Que lo enfriarán. APLICACIONES DE WATERCOOLING. • • • •

Bloques para Chipset: Estos bloques están destinados a intercambiar el calor con los microchips que entrelazan entre sí los elementos de la placa base. Bloques para Microprocesador: Estos bloques están destinados a intercambiar el calor con el microprocesador, o CPU lo que facilita subir su reloj y voltaje para, de esa manera, aumentar su rendimiento. Actualmente existen bloques para casi cualquier microprocesador de AMD y de Intel. Bloques para Disco Duro: Estos bloques están destinados a intercambiar el calor con los discos duros, componentes que suelen producir bastante calor conforme van envejeciendo, lo que puede causar fallos de lectura y/o escritura y, por tanto, pérdida de datos. Bloques para Tarjeta Gráfica: Estos bloques están destinados a intercambiar el calor con el chip de la tarjeta gráfica y, con ello, facilitar la subida de su reloj y voltaje para aumentar su rendimiento, y poder usarla como si fuera un modelo superior y más caro. Aunque suelen ser los más usados, después de los de microprocesador, no están disponibles para todos los modelos de chips ni de tarjetas del mercado más habituales.

FUNCIONAMIENTO DE LA REFRIGERACIÓN LÍQUIDA. El fluido que está almacenado en el depósito va hacia la bomba que es la encargada de mover y dar presión al agua para que pueda pasar por todos los bloques, el del procesador, el del chipset, el de la tarjeta gráfica, el del disco duro, etc. Cuando el agua ya ha pasado por todos los bloques, se dirige al radiador que puede tener unos ventiladores que hacen fluir el aire y enfrían el agua que pasa a través del radiador. Una vez el agua ha pasado por el radiador y ya ha sido enfriada, se dirige depósito para volver a hacer el recorrido anterior, formando así un ciclo. COOLER MASTER AQUAGATE S1 Cooler Master Aquagate S1 - Sistema de Enfriamiento por Liquido, para Intel, AMD y tarjetas de video. Sistema de Enfriamiento por Líquido fácil de instalar. Alcanza el máximo rendimiento de su procesador o tarjeta de video ya que este sistema le permite bajar las temperaturas sustancialmente. CARACTERÍSTICAS:  Superior desempeño de refrigeración.  Gran radiador de aluminio con ventilador.  Potente bomba de agua se integra en bloque.

 Tubo transparente.  Instalación flexible.  Fácil de usar diseño.  Recargas de refrigerante fácilmente.

PROCESADOR CON ENFRIAMIENTO LÍQUIDO INTERNO (IBM) IBM Labs ha llevado el enfriamiento líquido a un nuevo nivel, literalmente, los científicos del laboratorio IBM de Zurich demostraron hoy un chip tridimensional que entre sus capas tiene pequeñas cañerías del ancho de un pelo humano por donde fluye agua para enfriar el procesador.

GREEN IT INTRODUCCION El agujero en la capa de ozono, por otro lado, es cada vez más grande y preocupante ya que provoca el aumento de los casos de melanomas (cáncer) de piel, de cataratas oculares, y supresión del sistema inmunitario en humanos y en otras especies. Para preservar la atmósfera es de vital importancia disminuir a cero el uso de compuestos químicos como los clorofluorocarbonos (refrigerantes industriales), y sobre esto, la industria tecnológica tiene mucho que decir. Por otro lado la preocupación del sector TIC por el consumo energético y las consecuencias medioambientales que su actividad genera no ha sido tan temprana como hubiera sido deseable. La industria, sujeta a un entorno de creciente competencia, ha perseguido el desarrollo de productos y servicios de alta calidad, fiables y con el menor coste inicial posible. Aspectos relacionados con la eficiencia energética de los sistemas no han sido considerados prioritarios, pero el ininterrumpido avance de las redes de trabajo o el aumento de la digitalización de contenidos y de la capacidad de procesamiento, entre otras actividades, han provocado una demanda de infraestructuras y sistemas de información cada vez más potentes y, en consecuencia, una demanda energética cada vez mayor. Tres vertientes configuran la llamada Green IT: el reciclado de materiales, el ahorro de energía y la virtualización, que no es más que convertir un servidor físico en uno virtual, para poder hacer grandes agrupaciones en una sola máquina física. Estos son los planteamientos, las medidas, las grandes soluciones, pero, ¿hay que estarles agradecidos? Al fin y al cabo, las TIC son las responsables del 2% de las emisiones de CO2 a nivel mundial. Una tasa que Gartner(consultora internacional) se ha molestado en desmenuzar: donde ese 2%, el 39% corresponde a PC y monitores, el 23% a los servidores, el 15% a las telecomunicaciones fijas, el 9% a las telecomunicaciones móviles, el 7% a las LAN y telecomunicaciones de oficina, y el 6% a las impresoras. ¿Que Es Green IT? Por Green IT entendemos todo lo que se refiere al uso de la energía y todas las medidas destinadas a la eficiencia que se computan de manera directa en la cuenta de resultados (uso de la energía, refrigeración y todo lo relacionado con la alimentación de la infraestructura tecnológica)

Además de perseguir la máxima eficiencia energética, Green IT implica otros aspectos como la reducción de los componentes nocivos empleados en la fabricación de productos tecnológicos y la biodegradabilidad o reciclabilidad de los mismos, recogiendo o reutilizando las maquinas obsoletas y fomentando políticas de reciclaje en las empresas Al respecto de esto, destaca Green Grid, un consorcio mundial cuyo cometido es incentivar a las empresas y organismos para que consideren tecnologías, procesos y medidas eficientes energéticamente.

¿Pero Cuáles son las metas de GREEN GRID? Green Grid es un consorcio mundial dedicado a la promoción de la eficiencia energética en los centros de datos y los ecosistemas de informática empresarial. En cumplimiento de su misión, Green Grid se centra en los siguientes: la definición de sentido, centrados en el usuario y modelos de métrica, el desarrollo de normas, métodos de medición, procesos y nuevas tecnologías para mejorar el rendimiento del centro de datos en contra de la métrica definida, y promover la adopción de normas de eficiencia energética, procesos, medidas y tecnologías. Consta de un cuerpo interactivo de miembros que comparten y mejoran las mejores prácticas actuales en torno a la eficiencia del centro de datos, Green Grid incluye en el ámbito de aplicación y la colaboración con los usuarios finales y organizaciones gubernamentales en todo el mundo para asegurar que cada objetivo es la organización alineados con los desarrolladores y usuarios de la tecnología de centro de datos. Todas las partes interesadas se les anima a unirse y convertirse en participantes activos. "El consumo energético de los centros de datos es una inquietud cada vez mayor tanto para las empresas como para el medio ambiente. The Green Grid fue fundada con la finalidad de reunir a los cerebros más brillantes del sector para que encuentren soluciones energéticas innovadoras que mejorarán el rendimiento por vatio de consumo en todo el sector, para hoy y el mañana", comentó Marty Seyer, vicepresidente principal de informática comercial y de alto rendimiento de AMD. "The Green Grid representa no solo una invitación a participar para otros líderes del sector informático sino también un paso lógico más para la industria de la tecnología que ya alcanzó la madurez suficiente para intentar resolver los problemas y desafíos mundiales más urgentes. Dado el nivel de interés, el aval y el nivel de participación iniciales, es claro que esta organización llega en el momento oportuno para contribuir a resolver los problemas energéticos en los centros de datos y en todos los entornos informáticos". Razones para Apoyar GREEN IT El ahorro de costes es una de las razones clave para abrazar el movimiento Green IT. No en vano, el coste energético de un data center supone un 13% del total de los gastos. Combinando el progresivo crecimiento del precio por kilovatio que casi nadie discute, con la proliferación de las TI que tampoco nadie discute, algunos expertos prevén que en los próximos años el coste de la factura eléctrica llegará a suponer la mitad del coste total de explotación. IDC prevé que el gasto en suministro de energía y refrigeración de los centros de datos supere este año al presupuesto destinado al hardware. Además, hoy en día existen áreas (la City de Londres, por ejemplo) donde no es posible ubicar determinados data centers porque las compañías eléctricas no pueden garantizar el caudal requerido. De acuerdo con el estudio realizado por una consultora (BEA Systems), el señala, que el 57% cumplimiento de la normativa gubernamental como motivo principal para la puesta en marcha de políticas “green”, seguido de la responsabilidad social corporativa (45%), el incremento del coste energético (38%)

y los problemas de espacio (18%). La principal prioridad para las empresas españolas y portuguesas es el reciclaje y la utilización más responsable de los recursos tecnológicos. El segundo objetivo en importancia es la reducción del consumo energético de las TI (53%), seguido de la reducción de los gastos de refrigeración y luz de los centros de datos (50%). Metricas El compromiso creciente de las empresas con el movimiento green IT está haciendo crecer la necesidad de contar con métodos para medir de una forma objetiva el consumo de potencia en los centros de datos, pues sólo de esta forma se conseguirá una máxima eficacia contrastable. Y este es el objetivo de dos nuevos estándares que cuentan con el apoyo del consorcio industrial The Green Grid, creado en 2007 precisamente con la misión de desarrollar métricas de la productividad y eficiencia energética de los data centers. Se trata de Power Usage Effectiveness (PUE) y Data Center Infrastructure Efficiency (DDCiE), que, según The Green Grid, “además de permitir estimar el nivel de eficiencia energética de los data centers, permitirán comparar los resultados con los de otros centros de datos y determinar si resulta conveniente realizar alguna mejora”. Estas métricas se basan esencialmente en la correlación entre la cantidad de electricidad que consume el centro de datos, tanto con fines de alimentación como de refrigeración, y la cantidad de potencia utilizada por el equipamiento TI propiamente dicho en él instalado. Esta es la forma en que The Green Grid define sus dos “fórmulas” para calcular el consumo energético real de la infraestructura de los centros de datos y determinar cuál sería el objetivo a perseguir en cada caso: 1) PUE = Potencia total consumida por las instalaciones / la potencia consumida por el equipamiento TI. Se trata de una división y el resultado debe ser menor que 2. Pero cuanto más se aproxime a 1, mejor, dado que tal valor sería equivalente a una eficiencia del 100%. Como se ha dicho, hace referencia a la relación entre la potencia total consumida por el centro de datos y el consumo del equipamiento TI. Por ejemplo, un PUE de 2 significaría que la mitad del consumo energético del centro de datos se corresponde con el equipamiento TI y el otro 50% está destinado a la alimentación de los recursos a nivel de instalaciones e infraestructura refrigeración. 2) DCiE = (Potencia de equipamiento TI x 100) / Total de potencia de las instalaciones. El resultado de esta fórmula es un porcentaje. Cuando mayor sea el número obtenido, mejor. También conocido como DCE para Data Center Efficiency, muestra la potencia utilizada por el equipamiento TI como porcentaje del total de potencia por él consumida. Un DCiE del 50% significaría que la mitad de la potencia total se destina a alimentar tal equipamiento. El otro 50% correspondería a gastos generales de alimentación y refrigeración de las instalaciones del data center, no directamente al funcionamiento de los recursos TI. Clasificacion en Potencia de equipamiento TI y consumo total de las instalaciones The Green Greed define la potencia del equipamiento TI como el consumo asociado a los sistemas utilizados para gestionar, procesar, almacenar o encaminar datos dentro del data center. Es importante comprender cuáles son los componentes a clasificar bajo esta categoría, que, en términos generales, incluirá la carga asociada con todo el equipamiento TI, como ordenadores, almacenamiento y networking, además de las plataformas suplementarias (conmutadores KVM, monitores, estaciones de trabajo/portátiles utilizados para monitorizar o, en general, controlar el centro de datos, etc.). Por lo que respecta al consumo total de las instalaciones –del que se excluye el asociado al equipamiento TI- incluirá la alimentación de todos los recursos que soportan la carga de los sistemas anteriores. Bajo esta categoría entrarán los componentes de entrega de energía, como UPS,

interruptores, generadores, PDU, baterías, componentes de sistemas de refrigeración (chillers, unidades de aire acondicionado CRAC- Computer Room Air Conditioning...), unidades de manejo de expansión directa de aire (DX), bombas de aire, torres de ventilación, nodos de almacenamiento, de red y computacionales, etc.

¿Que se Puede hacer o se ha hecho? Los Centros de datos como mayores consumidores de energía como ya se menciono, muchas veces no son regulados sobre el consumo que tienen, algunos estudios preliminares indican, según The Green Grid, que muchos centros de datos podrían tener un PUE de 3.0 o superior, mientras que con un diseño apropiado sería perfectamente alcanzable en ellos un valor de 1,6. Esta idea está apoyada por diversas medias realizadas por Lawrence Berkley National Labs. A continuación se muestran las diez técnicas que Network World -medio del grupo IDG Communicationsha aplicado en Estados Unidos para mejorar la infraestructura de su propio data center, un proyecto llevado a cabo en estrecha colaboración con la compañía NetApp y con el proveedor de servicios local del grupo. Seguramente muchos se sentirán gratamente sorprendidos al comprobar que en muchos casos se trata de medidas sencillas, asequibles y fáciles de implementar. 1- Medir para controlar 2- Virtualizar y consolidar sistemas TI 3- Gestionar los datos: eliminar la información duplicada o inútil 4- Eliminar la “sobre-refrigeración” de los sistemas 5- No olvidar los principios físicos durante el diseño: el aire caliente sube, el frío baja 6- Mejorar continuamente la contención de calor 7- Aprovechar al máximo la refrigeración natural 8- Minimizar las pérdidas de transformación eléctrica 9- Aprovechar el calor en lugar de desperdiciarlo 10- Monitorización y ajuste constantes Casos Exitosos

Greenest Host Actualemte existe un CPD que hace realidad el uso de la energía solar. Se encuentra en California, no muy lejos de la comunidad de Palm Springs. Pertenece a la compañía Greenest Host, especializada en los servicios de alojamiento Web, desarrollo y diseño de páginas Web e Internet, de forma externalizada o medio outsourcing.

Greenest Host es cien por cien renovable, afirma Corrales. “Con solamente 120 paneles solares, generamos 50 megavatio-horas de electricidad, anualmente”. Esto se traduce en unos 144 kilovatiohoras al día. Corrales asegura que ve un crecimiento imparable de su negocio. “La dirección que estamos tomando nos permitirá escalar nuestra capacidad de procesos, generación de electricidad y redundancia en función de las necesidades de los clientes”. Google: un caso de éxito en Green IT Google uno de los grandes en la TI ha demostrado como el querer es poder respecto al cuido y uso del plante tierra, llegado a comparar una de las empresas funididoras de algun metal en cuanto a su consumo energetico; pues bien según estudios realizados demuestran que los valor obtenidos en la métricas impuestas por GREEN GRID de PUE están entre 1.13 y 1.29, con una media ponderada de 1.21, muy inferior a los objetivos más optimistas de la EPA fijados para dentro de tres años. Lo comenta también GigaOM, “Google data centers more efficient than the industry average“. Todo un buen ejemplo de cómo plantearse un objetivo y cumplirlo: para una compañía como Google, la idea de Green IT no supone simplemente tener una conciencia más limpia y tranquila con respecto al uso de los recursos naturales; supone puro ahorro en la factura de electricidad. Mientras en las compañías irresponsables y con mentalidad antigua, el responsable de tecnología dice eso de “la factura de la luz no va a mi presupuesto, y por tanto me trae sin cuidado”, desesperando a empresas como Dell que ven como plantearon un enfoque hacia Green IT antes de que el mercado estuviese maduro para absorberlo; en las más evolucionadas, las métricas de eficiencia forman ya parte de la agenda del CIO, y se evalúan de la misma manera que las habituales de continuidad de negocio. Alternativas Entre otras Alternativas que Google esta pensando lanzar y ha patentado es llevar sus Centros de Datos a Altamar ¿Como? La empresa propietaria del buscador más usado del planeta está preparando un proyecto por el que propone el traslado a barcos en mar abierto de sus servidores y centros de datos. El proyecto denominado Computer Navy se basa en el uso de water-data centres, aplicación patentada por Google, por el que las supercomputadoras, instaladas en los barcos, recibirían energía a partir del movimiento natural de los olas y se refrigerarían con la misma agua.Por si fuera poco, las naves marítimas al encontrarse a 11 Kilómetros de la orilla, como mínimo, no tendrían que pagar los impuestos de propiedad de los data-centres, que están localizados por todo el mundo. Para aclarar la idea, Google informó que los centros de ordenadores localizados en el barco o barcos “captarán la energía del movimiento del agua y la convertirán en electricidad y la bombearán para refrigerar los ordenadores y así, reducir el calentamiento”, según la aplicación de patente registrada a la que tuvo acceso The Times. En un intento de solucionar el problema, ya que no es muy ecológico, Microsoft ha investigado la construcción de un data-centre en climas muy fríos como Siberia, mientras que en Japón la empresa tecnológica Sun Microsystems planea enviar sus supercomputadoras a una mina de carbón abandonada, usando el agua del suelo como refrigerante. Sun asegura que pueden ahorrar hasta 9 millones de dólares en electricidad por año.

REDES SOCIALES Una red social es una estructura social que se puede representar en forma de uno o varios grafos en el cual los nodos representan individuos (a veces denominados actores) y las aristas relaciones entre ellos. Las relaciones pueden ser de distinto tipo, como intercambios financieros, amistad, relaciones sexuales, o rutas aéreas. También es el medio de interacción de distintas personas como por ejemplo juegos en linea, chats, foros, spaces, etc. El aumento de las visitas de los internautas a las redes sociales ha dividido a la mitad las visitas a los sitios porno, según los datos recogidos. En términos sencillos se definen en un grupo de personas, miembros de una familia, vecinos, amigos, compañeros de estudio o trabajo y otras personas capaces de aportar una ayuda y un apoyo tan real como duradero a un individuo o a una familia. Es una forma de interacción social, definida como un intercambio dinámico entre personas, grupos e instituciones en contextos de complejidad. Un sistema abierto y en construcción permanente que involucra a conjuntos que se identifican en las mismas necesidades y problemáticas y que se organizan para potenciar sus recursos. Alrededor de 2001 y 2002 surgen los primeros sitios que fomentan redes de amigos. Hacia 2003 se hacen populares con la aparición de sitios tales como Friendster, Tribe y Myspace. Rápidamente algunas empresas ingresan a las redes sociales. Google lanza en enero de 2004 Orkut apoyando un experimento que uno de sus empleados realizaba en su tiempo libre. En 2005 ingresan Yahoo 360º y otros. CLASIFICACION DE LA REDES SOCIALES: Según la naturaleza de las relaciones, se pueden dividir entre 2 cosas: a) diádicas (sólo indican ausencia o existencia de la relación) o valoradas (en la que la cantidad de la relación pueda medirse en términos de orden o de peso como, por ejemplo, número de encuentros sexuales entre dos personas), o bien b) transitivas (la relación en realidad es una unión entre actores que siempre es recíproca. Ejemplo: leemos el mismo blog habitualmente) o dirigidas (que el individuo A tenga relación con el individuo B no implica que B tenga esa misma relación con A, como, por ejemplo, prestar dinero). CLASIFICACION DE LAS REDES SOCIALES Primarias

Secundarias

Terciarias

Primarias: Están compuestas por la suma de todas las relaciones que un individuo percibe como significativas o define como diferenciadas de la masa anónima de la sociedad. Por lo tanto las redes primarias están conformadas por: Familia Familia ampliada Amigos – Colegas – Vecindario Las redes sociales secundarias corresponden a las relaciones entabladas en el macro sistema. En estas redes se distinguen dos grupos: 1. Uno más próximo a las redes primarias pero cuyas relaciones se establecen con características un tanto diferentes con respecto a la relación. 2. En segundo lugar están las redes institucionales, que se encuentran en el sistema externo. Estas redes están conformadas por personas que pertenecen a las instituciones y que brindan servicios (educativos, de salud, bienestar social, etc.) Las redes institucionales se definen como organizaciones gestadas y constituidas para cumplir con objetivos específicos que satisfagan necesidades particulares del sistema usuario; necesidades que son puntuales y deben ser canalizadas dentro de organismos creados para tales fines. Que debe tener una Red social en Internet Básicamente son 3 cosas lo que las redes sociales en internet deben tener, aunque hay algunas que tienen muchas más funciones: • • •

Actualización automática de la libreta de direcciones Perfiles visibles Capacidad de crear nuevos enlaces mediante servicios de presentación y otras maneras de conexión social en línea.

Redes sociales en Internet El software germinal de las redes sociales parte de la teoría de los Seis grados de separación, según la cual toda la gente del planeta está conectada a través de no más de seis personas. De hecho, existe una patente en EEUU conocida como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay otras muchas patentes que protegen la tecnología para automatizar la creación de redes y las aplicaciones relacionadas con éstas. Estas redes sociales se basan en la teoría de los seis grados, Seis grados de separación es la teoría de que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una cadena de conocidos que no tiene más de cuatro intermediarios. La teoría fue inicialmente propuesta en 1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera. Recogida también en el libro "Six Degrees: The Science of a Connected Age” del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan solo seis “saltos”.

Según esta Teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un amigo que pase el mensaje a sus amigos. Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes sociales. Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a cualquier lugar individuo del planeta. Redes sociales en Internet para el mercado Latino: Neurona.com, Gyggs.com, Dejaboo.net, eConozco.com, Festuc.com, Spaniards.es, Linkara.com, Gazzag.com, Networking Activo.

Cielo.com,

Qdamos.es,

En general, la red social se ha categorizado de 4 maneras: (a) la red como una agrupación curativa de individuos; (b) como una ubicación de recursos; (c) como reflejo del comportamiento de búsqueda de ayuda y de utilización de

servicios;

(d) como mitigador de los efectos del compromiso multi-organizacional con la familia. Beneficios que brindan las "redes sociales" 1.Actualidad 2.Interconexión 3.Comunicación 4.Entretenimiento 5.Protagonismo 6.Control Peligros de las Redes Sociales La nueva moda de navegación se centra en la búsqueda e inclusión de amigos y contactos, compañeros de estudio, colegas, equipos deportivos y hasta agrupaciones políticas en la web. Se trata de una nueva dimensión expansiva de las relaciones personales, que antes sólo podía ser alcanzada por técnicas de mercadeo profesional. La incorporación de imágenes, videos, sonidos y la combinación de estas redes con servicios como youtube.com, hacen que los perfiles o fichas personales de cada uno de los usuarios sean verdaderos

resúmenes de información, diarios íntimos y álbumes de fotos personales, soñadas sóo por madres y abuelas de todo el mundo. Orta considera que estas páginas almacenan datos que sirven para obtener desde el perfil psicológico, hasta datos personales como fechas de nacimiento, que pueden ser utilizados por ciberdelicuentes en la suplantación de identidades en Internet para acceder a cuentas bancarias en línea y para el uso de servicios web, e incluso estos datos proporcionan información privilegiada a hampones y organizaciones criminales del mundo real. Orta remarca que los usuarios deben saber que al inscribirse en sitios como Facebook o MySpace, se coloca información real a efectos de poder ser ubicados fácilmente por amigos y allegados. A manera de ejemplo, indica que la fecha de nacimiento es utilizada por el 10% de los usuarios de Internet con su contraseña de acceso. Redes más famosas: Facebook, MySpace, Bebo, Hi5, Cyword, Orkut, Friensher y Skyblog.

Web Mashup.

Durante los primeros días de Mashups, por lo general los programadores tenían que buscar pantalla de sitios Web sólo para obtener datos útiles. Hoy en día, los actores principales, como Google, yahoo, y Microsoft han permitido a los usuarios y creadores mashup utilizar sus mapas para sus aplicaciones con la esperanza de obtener más exposición para sus productos y para ganar la penetración en el mercado más profundo y más amplio mercado de la distribución. Esto ha abierto las puertas para el aumento de la tasa de mashup la creación del sitio. ¿Qué es un Mashup? Un mashup también conocido como Web Híbrida, es un sitio Web que accede a datos o servicios de terceros y los combina para crear una nueva aplicación, siendo uno de los pilares de la famosa Web 2.0, la Web social y colaborativa donde los usuarios tienen algo que aportar. En otras palabras consiste en una aplicación Web que utiliza recursos de más de una fuente para crear un servicio completo, consumiendo servicios directamente siempre a través de protocolo http y APIs. Actualmente según programmableweb.com: » 3450 mashups » Tres nuevos mashups cada día » Últimos 6 meses 3000 - 3450 » 356 APIs disponibles La potencia de los mashups radica en dos pilares básicos: La facilidad de utilizar los recursos de las fuentes originales gracias a un API sencillo y bien documentado.  La imaginación de los usuarios llevada hasta límites insospechados. Composición de los Mashup: 

La arquitectura de los mashups está siempre compuesta de tres partes:

El proveedor de contenidos: fuente de los datos. Los datos están disponibles vía una API y diferentes protocolos Web como RSS, REST y Web Service.  El sitio mashup: es la nueva aplicación Web que provee un nuevo servicio utilizando diferente información y de la que no es dueña.  El Web browser cliente: es la interfase de usuario del mashup. En una aplicación Web, el contenido puede ser mezclado por los Web browser clientes usando lenguaje Web del lado del cliente. Por ejemplo javascript. Arquitectura de la Tecnología Mashup 

Usuario accede al mashup Acceso a proveedores desde el sitio Web del mashup • Servidor de aplicaciones o similar  

Acceso a proveedores desde el navegador del usuario • Libera servidor mashup 

• Ejemplo: Google Maps Tecnología Mashup: Screen Scraping El sitio Web del mashup accede a las páginas Web del proveedor y procesa el contenido HTML extrayendo información. Características: En desuso en nuevos mashups A veces no autorizado Anónimo Complejo debido al contenido Sobrecarga servidores Propenso a fallos imprevisibles En uso pero para nuevos mashups la tendencia a API Tecnología Mashup: Web API       

El sitio Web del mashup accede a Servicios Web del proveedor utilizando una API. Características: API es del proveedor Existe un acuerdo Sencillo y documentado Servidores específicos Formas de los Mashup    

Los mashups vienen actualmente en cuatro formas: mashups de consumidores, mashups de datos, mashups empresariales y mashup de negocios. El tipo más conocido es el mashup de consumidores que está muy bien ejemplificado por muchas aplicaciones que utilizan Google Maps. Los mashups de este tipo combinan datos de varias fuentes escondiendo esto detrás de una interfase gráfica simple.  Mashup de datos mezcla datos de tipo similar proveniente de diferentes fuentes por ejemplo: Yahoo Pipes que combinando los datos de múltiples feeds RSS en un solo feed. 

Mashup empresarial integra usualmente datos de fuentes externas e internas. Por ejemplo podría crear un reporte del market share de un negocio combinando la lista externa de todas las casas vendidas la semana anterior con datos internos de las casas vendidas por una sola agencia.  Mashup de negocio es una combinación de todo lo anterior, enfocando en agregación de datos y presentación y agregando adicionalmente una funcionalidad colaborativa, haciendo que el resultado final sea una aplicación de negocio apropiada. 

Categorías: Mapas Requiere una cartografía fuente que podría proporcionar una presentación visual de la zona o lugar que está involucrado en el proceso. La fuente para el tipo de datos o información de que el mashup contendrá también es necesaria. Estos datos se representan gráficamente en el mapa en una gráfica de forma visual o por la aplicación. Características:  Muestran información sobre un mapa o imagen satélite  Categoría dominante (13%)  80% información es georeferenciable  Condiciones de uso  Cobertura mundial Vídeo y fotos Se basan sobre la foto y los proveedores de contenido de vídeo junto con otro origen de datos que puede proporcionar toda la información que podría estar relacionado con tales contenidos multimedia. Estos podrían incluir los lugares o ubicaciones de las fotos y los vídeos tomada. Estas ubicaciones o direcciones podrían ser utilizadas para conspirar geográfica de referencia visual. Características:  APIs para acceder a grandes bases de datos de videos y fotos  Contenidos creados por los usuarios (móvil)  Contenido multimedia clásico - mucha aceptación Búsqueda y compras Trabaja sobre la idea de comparar los precios de los productos y utilizando un método de búsqueda. Los resultados de la búsqueda de diversas fuentes en línea podrían ser compilados para la comodidad del navegador. Características:  Búsqueda de mejores ofertas  Técnicas de Servicios Web (B2B) y mucho Screen Scraping  Conducen a comercios online a ofrecer APIs Noticias Trabaja sobre el concepto de la colocación de una colección específica de la noticia de que un determinado usuario o cliente quiere o prefiere por lo general y, a continuación, se presenta en un método colectivo. Características:  Fuentes de noticias RSS/ATOM (sin necesidad de API)  Noticias agrupadas según preferencias del usuario  Para los sitios de noticias disminuye visitas Beneficios de los Mashup para los Diferentes Grupos Para las empresas:  Control: Acuerdo y estadísticas  marketing

Bajo coste Mas efectivo / bajo riesgo Aplicaciones nuevas  Publicidad para la marca  Incremento de ventas  Ingresos por publicidad indirecta  Ingresos por publicidad directa Para los desarrolladores: Aplicaciones de mucho nivel Pocos recursos Tecnología accesible Experimentar con las últimas tecnologías Web. Creatividad muy importante No solo para programadores Para los usuarios:      

Ocio y diversión Trabajo en entornos Web 2.0 Ahorro de tiempo y dinero Democratización de la tecnología Acceso a nuevos y mejores servicios Los usuarios son los que salen mas beneficiados Desventajas:  Anuncios no deseados  Dependencia de los proveedores  Propiedad Intelectual  Contenidos de poca calidad  Limitadores tecnológicos Mashups interesantes, prácticos y curiosos      

El Ladrillométro: permite a los usuarios comparar el precio que pagan por su casa (tanto propia como alquilada) en la zona en la que viven.  TuneGlue: muestra mapas de relación entre artistas musicales utilizando la API de la radio a la carta Last.fm y el servicio de Amazon que ofrece recomendaciones basadas en el criterio de compra de usuarios anteriores.  Facebook: de tipo red social, es posible que cada usuario incluya aplicaciones de terceros en su propio perfil 

MICROBLOGGING 0x000Definición Acorde a la wikipedia el microblogging (tambien llamado nanoblogging) es un servicio que nos permite enviar mensajes de texto simples y relativamente cortos, por diferentes medios como por ejemplo SMS, mensajeria instantanea, sitios web o redes ad hoc. Extendiendo el concepto podemos decir que es un medio de comunicacion similar y derivado de los blogs o weblogs que destaca por su excesiva sencillez restringiendo al usuario a enviar mensajes de corta duracion (es casi una convencion la restriccion a 140 caracteres) de manera que puedan ser transmitidos por diferentes medios como los telefonos celulares via mensajes SMS, paginas web o aplicaciones de escritorio dispuestas para tal fin de manera que se les faciliten los medios de transmision y recepcion disponibles para los usuarios siendo mas sencillo el proceso de transmitir ideas tan simples que puedan ser explicadas con texto plano en no mas de 140 caracteres y los interesados en esta noticia puedan estar al tanto de ello a traves de internet o SMS en un intervalo de no mas de un minuto de retraso, sin restricciones tecnologicas o geograficas. Algunos suelen confundir al microblogging con la mensajeria instantanea pero cada uno tiene diferentes aplicaciones y usos. Por ejemplo, en la mensajeria instantanea la comunicacion es entre dos personas a la vez. Un mismo mensaje solo puede ser transmitido a una sola persona, a menos que se organice una sala de chat. En cambio, en el microblogging cada usuario actualiza su estado enviando el mensaje y este es reproducido y recibido de forma simultanea por cada uno de los usuarios "seguidores" del que transmitio el mensaje. Algunos de los servicios de mcroblogging permiten ademas enviar mensajes directos a una persona, de forma publica o tambien de forma privada.

0x010 Orígenes A continuación se muestra una linea de tiempo con los servicios, accesorios y clientes del microblogging, desde su nacimiento hasta abril de 2008:

0x011Servicios Entre los servicios que ofrecen caracteristicas similares al microblogging se encuentran los mencionados en la linea de tiempo anterior y ademas otros que listaremos a continuacion pero entre ellos, quien mas popularidad ha tenido desde sus inicios ha sido Twitter. • • • • •

Twitter (http://twitter.com) Plurk (http://www.plurk.com/) Pownce (http://pownce.com/) Jaiku (http://www.jaiku.com/) Identi.ca (http://identi.ca/)

Ultimamente otros servicios como las redes sociales han incorporado la capacidad del microblogging como es el caso de facebook (el cual fue uno de los pioneros al incorporar este servicio), myspace, pringo y hi5.

0x100Aplicaciones La aplicación mas común y mas sencilla del microblogging ha sido desde sus inicios responder a una simple pregunta:

What are you doing? (Que estas haciendo?)

Lo cual significa que por lo general, los servicios de microblogging pretenden que el usuario actualice su estado con lo que hace a cada momento, por ello y por los diferentes medios por los cuales es posible acceder al servicio es que se vuelve tan adictiva esta actividad. Despues del boom de twitter, surgieron muchos otros accesorios para este que permitian aprovechar su popularidad y simplicidad para otros servicios como es el caso los que listaremos a continuación. Estos son servicios que se integran con el mas popular de los servicios de microblogging: Twitter. • Twitpic: Servicio para alojamiento de imágenes que se asocia con tu cuenta de twitter de manera que te permite publicar la imagen al momento de subirla al servidor agregandole un comentario en twitter junto con un vínculo a dicha imagen. • Blip.fm: que permite escuchar música en línea, mientras que se escribe un twitt con un comentario sobre la canción y un vínculo para que los followers o contactos de twitter puedan conocerlo. Algo asi como responder a la pregunta "Que musica estas escuchando?" • Twitterfeed: El cual te permite usar una cuenta de twitter como un consumidor de RSS/Atom feeds para poder mostrar de manera automatica en tus actualizaciones de twitter, por ejemplo, los ultimos posts que has escrito en tu blog. • Twittertise y twittadd: Los cuales permiten aprovechar la popularidad de twitter para promover anuncios publicitarios de empresas y ganar algo de dinero con ello.

Related Documents