Inteligencia Artificial

  • Uploaded by: elranchero_chido
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Inteligencia Artificial as PDF for free.

More details

  • Words: 8,953
  • Pages: 49
UNIVERSIDAD TECNOLOGICA DE GUADALAJARA INTRODUCCION A LA COMPUTACION DATOS PERSONALES

DATOS DEL TRABAJO

ALUMNO

Isaac de Santiago Barragán

FECHA

CARRERA

Ing. Computación

SEMESTRE



No. TAREA

GRUPO

A

TEMA

CICLO

2009-A

CALIF.

TIPO

28-05-09 Teoría

Taller

Investigación 1 Inteligencia Artificial

BIBLIOGARFIA: http://en.wikipedia.org/wiki/Robot

http://www.imdb.com/title/tt0212720/

http://es.wikipedia.org/wiki/Inteligencia_artificial

http://www.answermath.com/Spanish/logica-difusa-matematicas.htm

CONCLUSION PERSONAL: Con esta investigación, pudimos comprender que la inteligencia artificial no es solo una película de ciencia ficción, si no que es una nueva ciencia, con la cual algún día podremos llegar a crear un androide, robot capaz de ser como un ser humano, que razone por el solo, que piense por si mismo y quien quite y que sienta como los seres humanos. Por lo pronto la tecnología ya a creado demasiados artefactos como miembros y sistemas computacionales capaces de razonar por si solos y resolver varios problemas, y los miembros que actúen como si fueran parte viva de nuestros cuerpos. Fue una genial investigación.

Fecha Actualización:

14 Febrero 2009

Periodo de Vigencia:

2009-A

R00/0208

Profesor:

TCS Public

Fernando O. López Mtz. [email protected]

TCS Public

TCS Public

DEFINICION Se define la inteligencia artificial como aquella inteligencia exhibida por artefactos creados por humanos (es decir, artificial). El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas. Debido a que la inteligencia artificial tuvo muchos padres no hay un consenso para definir ese concepto, pero podemos decir que la inteligencia artificial se encarga de modelar la inteligencia humana en sistemas computacionales. Puede decirse que la Inteligencia Artificial (IA) es una de las áreas más fascinantes y con más retos de las ciencias de la computación, en su área de ciencias cognoscitivas. Nació como mero estudio filosófico y razonístico de la inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo. TCS Public Sencillamente, la Inteligencia Artificial busca el imitar la inteligencia humana. Obviamente no lo ha logrado todavía, al menos no completamente.

TCS Public

- En 1903 Lee De Forest inventa el triodo (también llamados bulbo o válvula de vacío). Podría decirse que la primera gran maquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en cuenta que el concepto de "inteligencia" es un termino subjetivo que depende de la inteligencia y la tecnología que tengamos en esa época. Un indígena del amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo es tanto. - En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los "Números Calculables", que puede considerarse el origen oficial de la Informática Teórica. En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que a Alan Turing se le considera el padre de la teoría de la computabilidad. También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de ordenador puede ser tan inteligente como un ser humano. -En 1951 William Shockley inventa el transistor de unión. El invento del transistor hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas. - En 1956, se acuño el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

TCS Public

-En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa. - En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha extendido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. Dichos atributos del agente inteligente son: 1. Tiene actitudes mentales tales como creencias e intenciones 2. Tiene la capacidad de obtener conocimiento, es decir, aprender. 3. Puede resolver problemas, incluso particionando problemas complejos en otros más simples. 4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias. 5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez) 6. Conoce los límites de su propias habilidades y conocimientos. 7. Puede distinguir a pesar de las similitud de las situaciones. 8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías. 9. Puede generalizar. 10. Puede percibir y modelar el mundo exterior. 11. Puede entender y utilizar el lenguaje y sus símbolos. - Muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro".

TCS Public

TCS Public

Un robot de charla o chatterbot es un programa de inteligencia artificial que pretende simular una conversación escrita, con la intención de hacerle creer a un humano que está hablando con otra persona. Estos programas informáticos prometen ser el futuro de la inteligencia artificial. En el futuro podremos ver como a estos actuales bots se les unirán las tecnologías del reconocimiento de voz y el de video. El cerebro humano tiene 100.000 millones de neuronas. Un programa de ordenador puede simular unas 10.000 neuronas. Si a la capacidad de proceso de un ordenador la sumamos la de otros 9.999.999 ordenadores, tenemos la capacidad de proceso de 10.000.000 ordenadores. Multiplicamos 10.000.000 ordenadores por 10.000 neuronas cada uno y da = 100.000 millones de neuronas simuladas. Un cerebro humano será simulado en el futuro gracias a Internet y cualquiera puede programarlo. Una vez que la inteligencia artificial tenga una inteligencia igual o superior a la del hombre, obligatoriamente surgirá un cambio político y social, en el que la IA tiene todas las de ganar si se da cuenta que no necesita a los humanos para colonizar el universo. Suena a ciencia ficción pero actualmente orbitando están los satélites de comunicaciones con sus procesadores 486. En el futuro, la inteligencia artificial autorreplicantes podría fácilmente hacerse con todas las colonias humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vacío en igualdad de condiciones. El futuro de una inteligencia superior puede ser la investigación de tecnologías como la teleportación, los viajes estelares y cualquier otra tecnología para aumentar "artificialmente" la inteligencia. TCS Public

TCS Public

Alan Turing "El inglés Alan Turing (1912-1954) puede ser considerado el padre de la Inteligencia Artificial (IA), aunque este nombre no se usase hasta después de 1956. Turing estudió lógica matemática en la Universidad de Cambridge y en 1937 estuvo en el Institute for Advanced Studies de Princeton, donde estaban Gödel y Von Newman, entre otros destacados lógicos y matemáticos, además de Albert Einstein Durante la segunda guerra mundial trabajó para su país en los servicios de información; en 1949 en la Universidad de Manchester y en el programa MADAM (Manchester Authomatic Digital Machine) que resultó ser el equipo de computación de mayor memoria construido hasta entonces. Condenado a causa de su homosexualidad a un tratamiento, o tortura, médico-farmacéutica equivalente a la castración, Turing se suicidó por envenenamiento en 1954." (Enric Trillas50-51) "Durante los años de la segunda guerra mundial, Turing colaboró en el diseño de una máquina llamada la ‘Bomba’ que exploraba las combinaciones posibles generadas por la máquina codificadora alemana ‘Enigma’. Tal ‘Bomba’ fue una máquina de propósito especial, el de descifrar códigos, construida electromecánicamente con relés. Asimismo, trabajó en el desarrollo de la ‘Colossus’ (que algunos consideran como el primer ordenador electrónico) que ya funcionaba con válvulas (tubos de vacío) en lugar de relés; gracias a ella los británicos pudieron mantener alejados de los submarinos alemanes a los barcos de suministro que cruzaban el Atlántico… Turing no recibió en vida reconocimiento alguno de la sociedad a la que tanto ayudó en los momentos más difíciles." (Enric Trillas51) "Más sorprendente todavía es que Turing demostró que para cualquier sistema de sus máquinas que sea necesario para efectuar algoritmos cada vez más complicados existe una máquina de Turing capaz de hacerlo todo ella sola. Tal máquina hipotética recibe el nombre de ‘máquina de Turing universal’, y su existencia teórica pone de manifiesto que el concepto de máquina de Turing es de una versatilidad fin, al permitir que cualquier incremento de la TCSsin Public complejidad del algoritmo pueda ser aceptado por una lista más larga de especificaciones… Los ordenadores actuales son realizaciones de las ideas de John von Newmann y de Alan Turing." (Enric Trillas53)

Turing "en 1950 propuso una prueba que se conoce como el ‘test de Turing’, el cual se basa en la idea siguiente: si una persona se comunica sólo a través de un terminal con otras dos partes, que están escondidas,, y no se puede discriminar a través de preguntas cuál de ambas partes es una persona y cuál es un ordenador, entonces no se puede negar que la máquina muestra la cualidad que, en las personas, se llama ‘inteligencia’. Tal procedimiento tiene la ventaja de no tener que definir lo que es la inteligencia. Turing creía firmemente que máquinas que piensen llegarían a existir y predijo que hacia el año 2000 una máquina jugaría al ‘juego de imitación’, como él llamó al test, de manera que un interrogador medio no tendría más del 70 por 100 de posibilidades de efectuar la identificación correcta tras cinco minutos de preguntas." (Enric Trillas55) En el desarrollo de la computadora, la teoría antecedió a la práctica. El manifiesto del nuevo orden electrónico de cosas fue un trabajo ("On Computable Numbers" -Sobre números calculables-) publicado en 1936, por el matemático y lógico A.M.Turing, el cual determinó la naturaleza y las limitaciones teóricas de las máquinas lógicas antes de que se construyera siquiera una sencilla computadora por completo programable.(Bolter17) Turing... en 1950 publicó "Computing Machinery and Intelligence"... expresó su convicción de que las computadoras eran capaces de imitar perfectamente la inteligencia humana y que tal hazaña la realizarían hacia el año 2000. Al prometer (o al amenazar) sustituir al hombre, la computadora nos ofrece una nueva definición de hombre, como "procesador de información", y de naturaleza, como "información que debe ser procesada".(Bolter18) "En 1936 Turing concibió su propio autómata imaginario. La máquina de Turing, como se le llegó a conocer, no hizo intento alguno para unirse a la sociedad de las criaturas vivas. Podría visualizarse más como un tocacintas muy sofisticado con una cinta arbitrariamente infinita. "Siendo una Máquina de Estados Finitos, se podría concebir como un autómata finito".(Lévy 22-23)

TCS Public

TCS Public

La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden pensar. La de idea construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas. Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956. La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la TCS Publices necesario incorporar en un sistema inteligencia humana. Se acude a sus técnicas cuando informático, conocimiento o características propias del ser humano.

Características de la Inteligencia Artificial. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento). Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial. El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta. TCS Public

Diferentes metodologías: 1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza. 2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos. Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la sinapsis es excitadora o inhibidora. El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas. Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva. Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones "booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es una recta, en tres dimensiones un plano, etc. Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de éstas hacia la salida. El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de los estados. TCS Public

TCS Public

Estos sistemas imitan la forma en que un humano toma desiciones, solo que con una mayor rápidez. En la lógica difusa, se usan modelos matemáticos para representa nociones subjetivas, como caliente/ tibio/ frio. También tiene un especial la " variable del tiempo" , ya que los sistemas de control pueden necesitar retroalimentarse en un espacio concreto de tiempo.

TCS Public

Teoría de Grupos Difusos La mayor diferencia entre la lógica difusa y la lógica booleana (estándar) son los valores posibles en el rango 0.0 a 1.0 (inclusive), no solo 0 y 1. Por ejemplo, puedes decir que el valor de verdad difusa (FTV) de la declaración "Graham es alto" es 0.75 si Graham mide 2 metros. Para escribir esto formalmente: m(ALTO(Graham)) = 0.75 m es una función de pertenencia y es la función que asignará a 2 metros un FTV de 0.75. La función de pertenencia puede ser increíblemente simple, o increíblemente compleja. Por ejemplo, una función de pertenencia relativamente simple puede ser: Una definición formal de una función de pertenencia puede definirse como una función que crea una correspondencia para cada punto del grupo difuso A con el intervalo real [0.0, 1.0] TCS Public de tal manera que m(A(x)) es una aproximación del grado de pertenencia de x en A.

Operadores Lógicos En la lógica booleana existen los operadores unión (OR), intersección (AND) y no (NOT). Estos operadores también existen en la lógica difusa, pero se definen de forma diferente: A OR B = MAX(m(A(x)), m(B(x))) A AND B = MIN(m(A(x)), m(B(x))) A' (NOT A) = 1 - mA(x) Los operadores de intersección y unión son el inicio obvio tanto para la lógica booleana y las funciones probabilísticas estándar. Para ver porqué están definidas de esta manera, vamos a mirar un ejemplo. Vamos a tomar las declaraciones "Graham es muy alto" y "Graham es muy listo" - si las combinas usando la probabilidad, obtienes: m(ALTO(Graham)) * m(LISTO(Graham)) = 0.90 * 0.90 = 0.81 Nota: Esto es, obviamente, tomando como para "muy" un valor de 0.9 tanto en la función de pertenencia ALTO como LISTO. Supongamos también que el rango [0.8 y 0.9) es igual a "bastante". La declaración resultante puede leerse como "Graham es bastante alto y listo" - esto es desde luego incorrecto. Usando lógica difusa: MIN(m(ALTO(Graham)) * m(LISTO(Graham))) = MIN(0.90, 0.90) = 0.90 Esto nos lleva a la declaración correcta "Graham TCS Public es muy alto y listo". El resultado es más claro a más variables son tomadas en consideración, por ejemplo 6 variables con valores de 0.8 nos llevaría a 0.262 usando probabilidad - ¡muy alejado del valor

TCS Public

Concepto: ¿ Que es una Red Neuronal (Neural, Neural Networks) ? Es un sistema compuesto por un gran número de elementos básicos (Artificial Neurons), agrupados en capas (Layers) y que se encuentran altamente interconectados (Synapses); Esta estructura posee varias entradas y salidas, las cuales serán entrenadas para reaccionar (valores O), de una manera deseada, a los estímulos de entrada (valores I). Estos sistemas emulan , de una cierta manera, al cerebro humano. Requieren aprender a comportarse (Learning) y alguien debe encargarse de enseñarles o entrenarles (Training), en base a un conocimiento previo del entorno del problema.

TCS Public

Aplicación: ¿ Para que son útiles las Redes Neuronales (Neural Networks) ? Esta tecnología es muy útil en unos pocos y muy especiales problemas. A grandes rasgos, estas aplicaciones son aquellas en las cuales se dispone de un registro de datos y nadie sabe exactamente la estructura y los parámetros que pudieran modelar el problema. En otras palabras, grandes cantidades de datos y mucha incertidumbre en cuanto a la manera de como estos son producidos.

Como ejemplos de las aplicaciones de las redes neuronales (Neural Networks) se pueden citar: las variaciones en la bolsa de valores, los riesgos en préstamos (Forecasting), el clima TCS Public local, el reconocimiento de patrones en rostros (Face Pattern Recognition) y la minería de datos (data mining).

Diseño: ¿ Cómo se construyen las Redes Neuronales (Neural Networks) ? Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando transistores a efecto de campo (FET) o amplificadores operacionales, pero la mayoría de las RN se construyen en software, esto es en programas de computación. Existen muy buenas y flexibles herramientas disponibles en internet que pueden simular muchos tipos de neuronas (Neurons), conexiones sinápticas (Synapses) y estructuras. Aspectos a considerar en la red neuronal: Elemento básico. Neurona artificial. Pueden ser con salidas binarias, análogas o con codificación de pulsos (PCM). Es la unidad básica de procesamiento que se conecta a otras unidades a través de conexiones sinápticas (Synaptic Connection). La estructura de la red. La interconexión de los elementos básicos. Es la manera como las unidades básicas se interconectan. Un ejemplo de como se combinan los aspectos mencionados es el perceptrón multicapa (Multi-Layer Perceptrón), entrenado con el algoritmo del "backpropagation". Se trata de una red compuesta por varios estratos de neuronas con respuestas basadas en funciones exponenciales, y cuyas conexiones sinápticas se determinan de manera de minimizar un error cuadrático medio. Otro ejemplo es el mapa auto-organizado de Kohonen (Self-organizing Map), en el cual sólo se requiere conocer la salida del sistema. TCS Public

Elemento básico. Neurona artificial (Artificial Neuron). Un neurona artificial es un elemento con entradas, salida y memoria que puede ser realizada mediante software o hardware. Posee entradas (I) que son ponderadas (w), sumadas y comparadas con un umbral (t).

s = I1 * w1 + I2 * w2 + … + In * wn - t o = f (s) La señal computada de esa manera, es tomada como argumento para una función no lineal (f), la cual determinará el tipo de neurona y en parte el tipo de red neuronal (Neural Network). Esta función puede tener diferentes formas, siendo la más comun la función sigmoidal (Sigmoid Function). A continuación se presentan algunos ejemplos:

TCS Public

La estructura de la red (Neural Network). La interconexión de los elementos básicos. Es la manera como las unidades(artificial neurons) comunican sus salidas a las entradas de otras unidades. Por lo general estas están agrupadas en capas (layers), de manera tal, que las salidas de una capa están completamente conectadas a las entradas de la capa siguiente; en este caso decimos que tenemos una red completamente conectada. Es posible tener redes en las cuales sólo algunas de las unidades están conectadas, también podemos tener conexiones (Synapses) de realimentación, conectando algunas salidas hacia entradas en capas anteriores (no se confunda esto con el "back propagation").

Para obtener un resultado aceptable, el número de capas debe ser por lo menos tres. No existen evidencias, de que una red con cinco capas resuelva un problema que una red de cuatro capas no pueda. Usualmente se emplean tres o cuatro capas. TCS Public

Aprendizaje. El proceso de entrenamientolas Redes Neuronales (Neural Networks Training). Este proceso consiste en una adaptación progresiva de los valores de las conexiones sinápticas (Synaptic Connections), para permitir a la Red Neuronal (Neural Network) el aprendizaje de un comportamiento deseado. Para lograr esto, alimentamos a la red con una entrada de los datos de entrenamiento, comparamos la salida de la red con la salida de los datos de entrenamiento; la diferencia se usa para computar el error (cuadrático medio) de la respuesta de la red. Con un algoritmo apropiado (como el "Backpropagation") es posible retocar los valores de los pesos sinápticos con el fin de reducir el error. Estas correcciones deben realizarse varias veces o ciclos, para todo el conjunto de entradas-salidas de los datos de entrenamiento.

TCS Public

Ejecución. Comportamiento final de la Red Neuronal (Neural Network). Para este trabajo debemos disponer de una red entrenada. Es posible alimentar a este sistema con una nueva entrada (nunca antes vista), una situación nueva, y nuestra Red Neuronal (Neural Network) producirá una respuesta razonable ó inteligente en sus salidas. Puede tratarse de la predicción de un valor en la bolsa en ciertas circunstancias (Forcasting), el riesgo de un nuevo préstamo, una advertencia sobre el clima local ó la identificación de una persona en una nueva imagen (Pattern Recognition). Es sencillo, pero funciona ¡ El futuro de las Redes Neuronales (Neural Networks) estará determinado en parte por el desarrollo de chips ad hoc, avances en la computación óptica/paralela y tal vez en un nuevo tipo de unidad química de procesamiento. TCS Public

TCS Public

Inteligencia Artificial y Robótica Con la ingente cantidad de divulgación científica realizada en los últimos años por los medios de comunicación (habitualmente la televisión) podría parecer que la Inteligencia Artificial y la Robótica van de la mano, cuando en la práctica esto rara vez es así. Al menos hasta el año 1990 el 99.9% de los robots no disponían de más inteligencia que la proporcionada por un semáforo o una lavadora. En realidad esas máquinas son robots según la definición tradicional, la que dice que un robot es una máquina capaz de sustituir al ser humano en una cierta tarea. Sin embargo hoy en día en la mayoría de países desarrollados se considera que un robot es "algo más". Por ejemplo a principios de siglo XXI en Japón cuando la gente piensa en robots, imagina una máquina capaz de interactuar con los seres humanos. Mientras que en los EEUU un robot es una máquina capaz de pilotar un avión autónomamente o explorar un planeta lejano sin necesidad de intervención humana constante.¿Que Inteligencia Artificial existe en estas máquinas? Habitualmente estos robots disponen de algoritmos deterministas que simulan un comportamiento Inteligente, pero muy pocos de estos "robots" realmente implementan técnicas propias de Inteligencia Artificial. Obviamente existen excepciones, pero por norma general los robots que se usan a gran escala no son excesivamente inteligentes. TCS Public

La Robótica Definición: El término robótica procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots. Otra definición de robótica es el diseño, fabricación y utilización de máquinas automáticas programables con el fin de realizar tareas repetitivas como el ensamble de automóviles, aparatos, etc. y otras actividades. Básicamente, la robótica se ocupa de todo lo concerniente a los robots, lo cual incluye el control de motores, mecanismos automáticos neumáticos, censores, sistemas de cómputos, etc. En la robótica se aúnan para un mismo fin varias disciplinas confluyentes, pero diferentes, como la Mecánica, la Electrónica, la Automática, la Informática, etc. El término robótica se le atribuye a Isaac Asimov. Los tres principios o leyes de la robótica según Asimov son: Un robot no puede lastimar ni permitir que sea lastimado ningún ser humano. El robot debe obedecer a todas las órdenes de los humanos, excepto las que contraigan la primera ley. El robot debe autoprotegerse, salvo que para hacerlo entre en conflicto con la primera o segunda ley. TCS Public

Robots: Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora. Otras definiciones para robot son: Máquina controlada por ordenador y programada para moverse, manipular objetos y realizar trabajos a la vez que interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y precisa que los seres humanos. El término procede de la palabra checa robota, que significa "trabajo obligatorio", fue empleado por primera vez en la obra teatral de 1921 R.U.R (Robots Universales de Rossum) por el novelista y dramaturgo checo Karel Capek. Desde entonces se ha empleado la palabra robot para referirse a una máquina que realiza trabajos para ayudar a las personas o efectúa tareas difíciles o desagradables para los humanos. Un robot es una manipulador multifuncional reprogramable diseñado para mover material, piezas, herramientas o dispositivos especializados a través de movimientos programados variables para la realización de tareas variadas. Para realizar cualquier tarea útil el robot debe interactuar con el entorno, el cual puede incluir dispositivos de alimentación, otros robots y, lo más importante, gente. Consideramos que la robótica abarca no solamente el estudio del robot en sí, sino también las interfaces entre él y sus alrededores. Ingenio electrónico que puede ejecutar automáticamente operaciones o movimientos muy variados, y capaz de llevar a cabo todos los trabajos normalmente ejecutados por el nombre. Manipulador multifuncional y reprogramable, diseñado para mover materiales, piezas, herramientas o dispositivos especiales, mediante movimientos programados y variables que permiten llevar a cabo diversas tareas. TCS Public

El nombre de robots es tomado del vocablo checo "robota" que significa siervo y que es idéntico al término ruso que significa trabajo arduo, repetitivo y monótono, y lo usó por primera vez el escritor Karel Capek en 1917 para referirse en su obras a máquinas con forma humanoide. Deriva de "robotnik" que define al esclavo de trabajo En la actualidad, los avances tecnológicos y científicos no han permitido todavía construir un robot realmente inteligente, aunque existen esperanzas de que esto sea posible algún día. Hoy por hoy, una de las finalidades de la construcción de robots es su intervención en los procesos de fabricación. Estos robots, que no tienen forma humana en absoluto, son los encargados de realizar trabajos repetitivos en las cadenas de proceso de fabricación. En una fábrica sin robots, los trabajos antes mencionados los realizan técnicos especialistas en cadenas de producción. Con los robots, el técnico puede librarse de la rutina y el riesgo que sus labores comportan, con lo que la empresa gana en rapidez, calidad y precisión. TCS Public

Tipos de robots Robots impulsados neumaticamente: La programación consiste en la conexión de tubos de plástico a unos manguitos de unión de la unidad de control neumático. Esta unidad está formada por dos partes: una superior y una inferior. La parte inferior es un secuenciador que proporciona presión y vacío al conjunto de manguitos de unión en una secuencia controlada por el tiempo. La parte superior es el conjunto de manguitos de unión que activan cada una de las piezas móviles del robot. Son los más simples que existen. Hay quien opina que a este tipo de máquinas no se les debería llamar robots; sin embargo, en ellas se encuentran todos los elementos básicos de un robot: estas máquinas son programables, automáticas y pueden realizar gran variedad de movimientos. Robots equipados con servomecanismos: El uso de servomecanismos va ligado al uso de sensores, como los potenciómetros, que informan de la posición del brazo o la pieza que se ha movido del robot, una vez éste ha ejecutado una orden transmitida. Esta posición es comparada con la que realmente debería adoptar el brazo o la pieza después de la ejecución de la orden; si no es la misma, se efectúa un movimiento más hasta llegar a la posición indicada. Robots punto a punto: La programación se efectúa mediante una caja de control que posee un botón de control de velocidad, mediante el cual se puede ordenar al robot la ejecución de los movimientos paso a paso. Se clasifican, por orden de ejecución, los pasos que el robot debe seguir, al mismo tiempo que se puede ir grabando en la memoria la posición de cada paso. Este será el programa que el robot ejecutará. Una vez terminada la programación, el robot inicia su trabajo según las instrucciones del programa. A este tipo de robots se les llama punto a punto, porque el camino trazado para la realización de su trabajo está definido por pocos puntos. Robots controlados por computadora: Se pueden controlar mediante computadora. Con ella es posible programar el robot para que mueva sus brazos en línea recta o describiendo cualquier otra figura geométrica entre puntos preestablecidos. La programación se realiza mediante una caja de control o mediante el teclado de la computadora. La computadora permite además acelerar más o menos los movimientos del robot, para facilitar la manipulación de objetos pesados. TCS Public

Robots con capacidades sensoriales: Aún se pueden añadir a este tipo de robots sensores ópticos, codificadores, etc. Los que no poseen estas capacidades sólo pueden trabajar en ambientes donde los objetos que se manipulan se mantienen siempre en la misma posición. Los robots con capacidades sensoriales constituyen la última generación de este tipo de máquinas. El uso de estos robots en los ambientes industriales es muy escaso debido a su elevado costo. Estos robots se usan en cadenas de embotellado para comprobar si las botellas están llenas o si la etiqueta está bien colocada. Robots mosquitos: La cucaracha metálica se arrastra con gran destreza por la arena, como un verdadero insecto. A pesar de que Atila avanza a 2 km/h, tratando de no tropezar con las cosas, es «gramo por gramo el robot más complejo del mundo», según su creador, Rodney Brooks. En su estructura de 1,6 kg y 6 patas, lleva 24 motores, 10 computadores y 150 sensores, incluida una cámara de video en miniatura. La experimentación en operaciones quirúrgicas con robots abre nuevos campos tan positivos como esperanzadores. La cirugía requiere de los médicos una habilidad, precisión y decisión muy cualificadas. La asistencia de ingenios puede complementar algunas de las condiciones que el trabajo exige. En operaciones delicadísimas, como las de cerebro, el robot puede aportar mayor fiabilidad. Últimamente, se ha logrado utilizar estas máquinas para realizar el cálculo de los ángulos de incisión de los instrumentos de corte y reconocimiento en operaciones cerebrales; así mismo, su operatividad se extiende a la dirección y el manejo del trepanador quirúrgico para penetrar el cráneo y de la aguja de biopsia para tomar muestras del cerebro. TCS Public

Robot industrial: Nace de la unión de una estructura mecánica articulada y de un sistema electrónico de control en el que se integra una computadora. Esto permite la programación y control de los movimientos a efectuar por el robot y la memorización de las diversas secuencias de trabajo, por lo que le da al robot una gran flexibilidad y posibilita su adaptación a muy diversas tareas y medios de trabajo. El robot industrial es pues un dispositivo multifuncional, es decir, apto para muy diversas aplicaciones, al contrario de la máquina automática clásica, fabricada para realizar de forma repetitiva un tipo determinado de operaciones. El robot industrial se diseña en función de diversos movimientos que debe poder ejecutar; es decir, lo que importa son sus grados de libertad, su campo de trabajo, su comportamiento estático y dinámico. La capacidad del robot industrial para reconfigurar su ciclo de trabajo, unida a la versatilidad y variedad de sus elementos terminales (pinzas, garras, herramientas, etc.), le permite adaptarse fácilmente a la evolución o cambio de los procesos de producción, facilitando su reconversión. Los robots industriales están disponibles en una amplia gama de tamaños, formas y configuraciones físicas. La gran mayoría de los robots comercialmente disponibles en la actualidad tienen una de estas cuatro configuraciones básicas: Configuración polar Configuración cilíndrica Configuración de coordenadas cartesianas Configuración de brazo articulado La configuración polar utiliza coordenadas polares para especificar cualquier posición en términos de una rotación sobre su base, un ángulo de elevación y una extensión lineal del brazo. La configuración cilíndrica sustituye un movimiento lineal por uno rotacional sobre su base, con los que se obtiene un medio de trabajo en forma de cilindro. La configuración de coordenadas cartesianas posee tres movimientos lineales, y su nombre proviene de las coordenadas cartesianas, las cuales son más adecuadas para describir la posición y movimiento del brazo. Los robots cartesianos a veces reciben el nombre de XYZ, donde las letras representan a los tres ejes del movimiento. La configuración de brazo articulado utiliza únicamente articulaciones rotacionales para conseguir cualquier TCS Public posición y es por esto que es el más versátil.

TCS Public

En la medida en que "Real" y "Virtual" son términos antagónicos, sobre todo en el lenguaje científico, parece un contrasentido que la Tecnología de Vanguardia nos hable de "Realidad Virtual". Con el teléfono y la radio, el oído supera la distancia y suple la voz real de hablante con reproducción electrónica convincente. Con la televisión, el ojo hace lo mismo con la imagen. Si podemos – y podemos - ampliar la ilusión a los demás sentidos (sobre todo al tacto) la "Tele Presencia" será un hecho. E igual que hay sistemas acústicos de alta fidelidad tan perfectos que hace imposible distinguir una grabación de por ejemplo, una orquesta real, es sólo cuestión de perfeccionamiento técnico el creer ilusiones multisensoriales prácticamente indistinguibles de una experiencia auténtica. Las implicaciones son a la vez fascinantes y aterradoras. Desde nuevas y revolucionarias formas de enseñanza o de rehabilitación de minusválidos, hasta nuevas y tal vez definitivas modalidades de drogadicción electrónica. Desde el sexo a distancia (o seres creados por ordenadores y sistemas de información) hasta la guerra teledirigida, siguiendo la máxima de que "En el amor y en la guerra todo vale" Junto con la Nanotecnología y la IA con las que se está confluyendo rápidamente, la REALIDAD VIRTUAL (RV) es sin duda el campo de investigación más importante del momento, el más prometedor y el más inquietante o el Mysterium Tremendum que la Mujer y el Hombre tendrán que afrontar en su próximo salto iniciativo. "Lo que la humanidad puede soñar, la Tecnología lo puede conseguir" (FUJITSU, 1990: SLOGANS) y parece a punto de cumplirse plenamente. ¿Qué sueños o pesadillas se llegarán a realizar con la Tecnología en los próximos años? Depende en buena medida de que estemos informados sobre sus posibilidades y tendencias. TCS Public

Imagínese una televisión envolvente con programas tridimensionales, incluso sonido tridimensional, objetos sólidos que pueden alzar y manipular y hasta tocar con los dedos y las manos. Imagínese inmerso en un mundo artificial en donde se explora activamente, en lugar de mirarlo con atención desde una perspectiva fija, mediante una pantalla plana en un cinematógrafo o en un televisor o una computadora. Imagínese que es el creador tanto como el consumidor de su experiencia artificial y que dispone del poder de usar un gesto o palabra para poder envolver el mundo que usted ve, oye y siente. Esta parte no es ficción. Si se tuviera que elegir una palabra anticuada para describir la categoría general a la que podría pertenecer esta nueva cosa, la candidata sería "Simulador". La Tecnología RV se parece a –y precisamente deriva de allí- los simuladores de vuelo que la Fuerza Área de los Estados Unidos de Norteamérica y las aerolíneas comerciales usan para entrenar a los pilotos. La RV también es un simulador, pero en lugar de mirar una pantalla bidimensional y operar un jostick, la persona que experimenta la RV está rodeada por una representación tridimensional generada por computadora, y es capaz de desplazarse en el mundo virtual bajo distintos ángulos para introducirse en él. Asirlo y remodelarlo. Un modo de ver la RV es como una ventana mágica que sé asoma a otros mundos, desde moléculas a mentes. La RV provocará que en las décadas venideras del Siglo XXI, la realidad desaparezca detrás de una pantalla. "¿Está por transformarse la comercialización masiva de las experiencias de la realidad artificial en un mundo en que querríamos que vivieran nuestros nietos? ¿Cuáles son los potenciales más poderosos, más perturbadores, menos predecibles de la Realidad Virtual? Si pudiéramos tener una clara visión de los potenciales y trampas de la Realidad Virtual, ¿Cómo haríamos para optimizar los unos y evitar las otras? "El genio está fuera de la botella y no hay manera de revertir el ímpetu de la investigación de la Realidad Virtual; Pero es un genio joven y parcialmente entrenable y sobre todo accesible" (PAGELS, TCS Public 1991:229) No puede detenerse la RV, aún cuando descubramos que es lo mejor que podemos hacer. Pero podríamos guiarla, si empezamos a pensar en ello.

Las implicaciones más fantásticas de la RV ya han sido pregonadas en los medios de comunicación, mediante informes sobre lo que podría hacerse posible, como por ejemplo la "Teledildónica" (sexo simulado a distancia) o el "LSD Electrónico" (simulaciones tan poderosamente aditivas que reemplazarían a la realidad) Pero según Pagels, "El interés por la Realidad Virtual en los medios de comunicación era una mala idea. No se trata de que la promesa de la Tecnología Realidad Virtual no sea realmente espectacular, como parecen serlo las predicciones de las gafas de Rayos X y las ayudas de visualización más modernas y científicas. Se trata de que haya muchos problemas por resolver antes de que esas posibilidades demuestren a todos lo prácticas que son. Las especulaciones en los medios masivos, alimentan las expectativas de la gente respecto de progresos inminentes en una Tecnología que tardará años, tal vez décadas, en madurar y desarrollarse" (IBID, 125) Aunque algunos consideren que la investigación de los mundos virtuales no es ortodoxa y exotérica, las credenciales desmienten esos pensamientos. "Si percibimos nuestro rol con acierto, vemos entonces con más claridad el criterio adecuado para el éxito: Un fabricante de herramientas tiene éxito con su ayuda. Por más brillante que sea la hoja, por más hermosa que sea la empuñadura, por más perfecta que sea la forma, una espada se prueba sólo cortando. Este forjador de espadas tiene éxito cuando sus clientes mueren a edad avanzada" (BROOKS, 1991:257) Creemos que el uso de los sistemas de computación para la amplificación de la inteligencia es hoy mucho más intensivo y lo será en cualquier momento en el futuro que el uso de las computadoras para la IA. En la comunidad de la IA, el objetivo es reemplazar la mente humana por la máquina (CHARNIAK y MCDERMOTT), su programa y su base de datos. En la Comunidad de la Amplificación de la Inteligencia (captar la realidad mediante la ilusión), el objetivo consiste en construir sistemas que amplifiquen la mente humana proveyéndole auxiliares, basados en la computadora, que hacen las cosas que las mentes tienen dificultades para hacer. TCS Public(sin ser hipótesis), que nos permite él poder Con base en lo anterior, surge la siguiente aseveración estudiar la relación RV con la Mente Humana y las Ciencias Sociales.

Existen tres áreas en las que la Mente Humana es más poderosa que cualquier algoritmo elaborado hasta ahora en las Ciencias. La primera es el Reconocimiento de Imágenes Visuales o Auditivas. Los computadores científicos ni siquiera tienen un buen método para aproximarse al poder de reconocimiento que usa un bebé de una semana para reconocer la cara de su madre desde un ángulo y con una iluminación que no haya visto. La segunda área importante de la superioridad, que tiene la humanidad sobre lo computacional, es el dominio de lo que se llama Evaluación. La tercera zona de la superioridad mental humana está en el "Sentido global del contexto que nos capacita para recordar, en el momento apropiado, algo que hemos leído en una oscura revista años atrás, con referencia a un tema completamente diferente y que de pronto se nos aparezca como significativa" (BELLMAN, 1978:875) De acuerdo con Broocks, los tres campos en los que las computadoras son más diestras que la mente humana son: "Evaluación de cálculos, acopio de cantidades masivas de datos, memorización de cosas sin posibilidad de olvidarlas" (BROOCKS, 1980:890) Con lo anterior, surge una posible relación entre la estructuración de un sistema cooperativo Hombre-Máquina. Mediante que la máquina haga los cálculos, memorice y busque las bases de datos, entendiendo por cálculos la evaluación de algunas funciones muy complicadas, mientras que el ser humano ejerce la estrategia, la evaluación, el reconocimiento de imágenes, planifica y busca información en un contexto. Cuando uno trata de definir la interfaz para ese TCS Public sistema, se acerca al umbral de la RV y la IA.

TCS Public

Los sistemas expertos son llamados así porque emulan el comportamiento de un experto en un dominio concreto y en ocasiones son usados por estos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto. Se puede entender como una rama de la inteligencia artificial. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción). Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una forma fácil, reuniendo dos capacidades para poder cumplirlo: Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben realizar siguiendo ciertas reglas o pasos comprensibles de manera que se pueda generar la explicación para cada una de estas reglas, que a la vez se basan en hechos. Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de razonamiento que sirven para modificar los conocimientos anteriores. Sobre la base de lo anterior se puede decir que los sistemas expertos son el producto de investigaciones en el campo de la inteligencia artificial ya que esta no intenta sustituir a los expertos humanos, sino que se desea ayudarlos a realizar con más rapidez y eficacia todas las tareas que realiza. Debido a esto en la actualidad se están mezclando diferentes técnicas o aplicaciones aprovechando las ventajas que cada una de estas ofrece para poder tener empresas más seguras. Un ejemplo de estas técnicas sería los agentes que tienen la capacidad de negociar y navegar a través de recursos en línea; y es por eso que en la actualidad juegaTCS unPublic papel preponderante en los sistemas expertos.

Estructura básica de un SE Un Sistema Experto está conformado por: Base de conocimientos (BC): Contiene conocimiento modelado extraído del diálogo con el experto. Base de hechos (Memoria de trabajo): contiene los hechos sobre un problema que se ha descubierto durante el análisis. Motor de inferencia: Modela el proceso de razonamiento humano. Módulos de justificación: Explica el razonamiento utilizado por el sistema para llegar a una determinada conclusión. Interfaz de usuario: es la interacción entre el SE y el usuario, y se realiza mediante el lenguaje natural. Tipos de SE Principalmente existen tres tipos de sistemas expertos: Basados en reglas. Basados en casos o CBR (Case Based Reasoning). Basados en redes bayesianas. En cada uno de ellos, la solución a un problema planteado se obtiene: Aplicando reglas heurísticas apoyadas generalmente en lógica difusa para su evaluación y aplicación. Aplicando el razonamiento basado en casos, donde la solución a un problema similar planteado con anterioridad se adapta al nuevo problema. TCS Public Aplicando redes bayesianas, basadas en estadística y el teorema de Bayes.

Ventajas y limitaciones de los Sistemas Expertos Ventajas Permanencia: A diferencia de un experto humano un SE (sistema experto) no envejece, y por tanto no sufre pérdida de facultades con el paso del tiempo. Duplicación: Una vez programado un SE lo podemos duplicar infinidad de veces. Rapidez: Un SE puede obtener información de una base de datos y realizar cálculos numéricos mucho más rápido que cualquier ser humano. Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad de duplicación el coste finalmente es bajo. Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el ser humano. Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí (cansancio, presión, etc.). Consolidar varios conocimientos Apoyo Academico... Limitaciones Sentido común: Para un Sistema Experto no hay nada obvio. Por ejemplo, un sistema experto sobre medicina podría admitir que un hombre lleva 40 meses embarazado, a no ser que se especifique que esto no es posible. Lenguaje natural: Con un experto humano podemos mantener una conversación informal mientras que con un SE no podemos. Capacidad de aprendizaje: Cualquier persona aprende con relativa facilidad de sus errores y de errores ajenos, que un SE haga esto es muy complicado. Perspectiva global: Un experto humano es capaz de distinguir cuales son las cuestiones relevantes de un problema y separarlas de cuestiones secundarias. Capacidad sensorial: Un SE carece de sentidos. Flexibilidad: Un humano es sumamente flexible a la hora de aceptar para la resolución de un problema. TCSdatos Public Conocimiento no estructurado: Un SE no es capaz de manejar conocimiento poco estructurado.

Tareas que realiza un Sistema Experto Monitorización La monitorización es un caso particular de la interpretación, y consiste en la comparación continua de los valores de las señales o datos de entrada y unos valores que actúan como criterios de normalidad o estándares. En el campo del mantenimiento predictivo los Sistemas Expertos se utilizan fundamentalmente como herramientas de diagnóstico. Se trata de que el programa pueda determinar en cada momento el estado de funcionamiento de sistemas complejos, anticipándose a los posibles incidentes que pudieran acontecer. Así, usando un modelo computacional del razonamiento de un experto humano, proporciona los mismos resultados que alcanzaría dicho experto. Diseño Diseño es el proceso de especificar una descripción de un artefacto que satisface varias características desde un número de fuentes de conocimiento. El diseño se concibe de distintas formas: El diseño en ingeniería es el uso de principios científicos, información técnica e imaginación en la definición de una estructura mecánica, máquina o sistema que ejecute funciones específicas con el máximo de economía y eficiencia. El diseño industrial busca rectificar las omisiones de la ingeniería, es un intento consciente de traer forma y orden visual a la ingeniería de hardware donde la tecnología no provee estas características. Los SE en diseño ven este proceso como un problema de búsqueda de una solución óptima o adecuada. Las soluciones alternas pueden ser conocidas de antemano o se pueden generar automáticamente probándose distintos diseños para verificar cuáles de ellos cumplen los requerimientos solicitados por el usuario, ésta técnica es llamada “generación y prueba”, por lo tanto estos SE son llamados de selección. En áreas de aplicación, la prueba se termina cuando se encuentra la primera solución; sin embargo, existen problemas más complejos en TCS Public los que el objetivo es encontrar la solución óptima.

Planificación La planificación es la realización de planes o secuencias de acciones y es un caso particular de la simulación. Está compuesto por un simulador y un sistema de control. El efecto final es la ordenación de un conjunto de acciones con el fin de conseguir un objetivo global. Los problemas que presentan la planificación mediante SE son los siguientes: Existen consecuencias no previsibles, de forma que hay que explorar y explicar varios planes. Existen muchas consideraciones que deben ser valoradas o incluirles un factor de peso. Suelen existir interacciones entre planes de subobjetivos diversos, por lo que deben elegirse soluciones de compromiso. Trabajo frecuente con incertidumbre, pues la mayoría de los datos con los que se trabaja son más o menos probables pero no seguros. Es necesario hacer uso de fuentes diversas tales como bases de datos. Control Un sistema de control participa en la realización de las tareas de interpretación, diagnóstico y reparación de forma secuencial. Con ello se consigue conducir o guiar un proceso o sistema. Los sistemas de control son complejos debido al número de funciones que deben manejar y el gran número de factores que deben considerar; esta complejidad creciente es otra de las razones que apuntan al uso del conocimiento, y por tanto de los SE. Cabe aclarar que los sistemas de control pueden ser en lazo abierto, si en el mismo la realimentación o el paso de un proceso a otro lo realiza el operador, o en lazo cerrado si no tiene que intervenir el operador en ninguna parte del mismo. Reparación, correcta o terapia. La reparación, corrección, terapia o tratamiento consiste en la proposición de las acciones correctoras necesarias para la resolución de un problema. Los SE en reparación tienen que cumplir diversos objetivos, como son: Reparación lo más rápida y económicamente posible. Orden de las reparaciones cuando hay que realizar varias. Evitar los efectos secundarios de la reparación, es decir la aparición de nuevas averías por la reparación. TCS Public

Simulación La simulación es una técnica que consistente en crear modelos basados en hechos, observaciones e interpretaciones sobre la computadora, a fin de estudiar el comportamiento de los mismos mediante la observación de las salidas para un conjunto de entradas. Las técnicas tradicionales de simulación requieren modelos matemáticos y lógicos, que describen el comportamiento del sistema bajo estudio. El empleo de los SE para la simulación viene motivado por la principal característica de los SE, que es su capacidad para la simulación del comportamiento de un experto humano, que es un proceso complejo. En la aplicación de los SE para simulación hay que diferenciar cinco configuraciones posibles: Un SE puede disponer de un simulador con el fin de comprobar las soluciones y en su caso rectificar el proceso que sigue. Un sistema de simulación puede contener como parte del mismo a un SE y por lo tanto el SE no tiene que ser necesariamente de simulación. Un SE puede controlar un proceso de simulación, es decir que el modelo está en la base de conocimiento del SE y su evolución es función de la base de hechos, la base de conocimientos y el motor de inferencia, y no de un conjunto de ecuaciones aritmético – lógicas. Un SE puede utilizarse como consejero del usuario y del sistema de simulación. Un SE puede utilizarse como máscara o sistema frontal de un simulador con el fin de que el usuario reciba explicación y justificación de los procesos. TCS Public

TCS Public

Related Documents