La Inteligencia Artificial

  • Uploaded by: Liceo Andrés Bello-Comunicaciones
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View La Inteligencia Artificial as PDF for free.

More details

  • Words: 4,857
  • Pages: 16
La Inteligencia Artificial El término "inteligencia artificial" (abreviado IA) se ha popularizado para designar a una disciplina incluida entre las ciencias de la computación. Tiene que ver con el esfuerzo que decenas de científicos de distintos países, especialmente de los Estados Unidos y de Europa Occidental, han venido realizando durante los últimos treinta años para dotar a las computadoras de inteligencia. La frase "dotar a las computadoras de inteligencia" suele producir una reacción de asombro en muchas personas, aunque a veces por motivos diferentes: "¿Pero, es que las computadoras no son inteligentes?", comentarán algunos que han visto o leído demasiadas historias de ciencia ficción. Claro que no, habrá que contestarlos, refiriéndonos al hecho de que la computadora ordinariamente programada no es más que un instrumento muy rápido y generalmente confiable de hacer operaciones aritméticas o de manipular fichas de nombres en orden alfabético (o de ponerlas en tal orden). Para que una computadora comience a merecer el nombre de inteligente, deberá ser capaz de realizar acciones que, si realizadas por un ser humano, diríamos que requieren inteligencia, como jugar ajedrez o mantener un diálogo con otro ser considerado también inteligente, o resolver algún rompecabezas. Pero para otras personas la fuente del estupor al ver asociadas las palabras "inteligencia" y "artificial" consistirá en el hecho de que para ellas la inteligencia y las máquinas son conceptos esencialmente incompatibles: "Las computadoras pueden hacer operaciones aritméticas porque para eso sólo se necesita ser capaz de manipular números en forma mecánica; pero la inteligencia, a diferencia de la capacidad de manipular números, requiere creatividad, inventiva, iniciativa intelectual, y eso desde luego solo lo pueden tener los seres humanos, de ninguna manera las máquinas. Las computadoras pueden hacer lo que sus programadores les dicen, pero nada más; además, hagan lo que hagan, nunca sabrán lo que están haciendo, nunca serán conscientes de lo que hacen. La disciplina de la IA se ha desarrollado ya suficientemente como para ofrecer a la sociedad humana algunos instrumentos que mejoren su adaptación al medio ambiente: programas que se conocen con el nombre de sistemas expertos, cuya teoría y práctica son muy novedosas. Podemos decir, pues, que su ejercicio por parte de los investigadores tiene como mira en muchos casos la fabricación de artefactos útiles, programas con habilidad especial para realizar funciones que con anterioridad sólo podíamos confiar a seres humanos. Llamemos a esa clase de investigación IA de rendimiento. La disciplina comenzó a existir, y todavía se practica en gran número de casos, con otro propósito, a saber, el intento de comprender el funcionamiento de la inteligencia humana; a este tipo de investigación lo llamamos IA de comprensión. De este segundo tipo fue el trabajo realizado por los pioneros de la disciplina, A. Newell y H. Simon, en los años cincuentas y siguientes que culminaron con la publicación de una importante obra sobre habilidad de solución de problemas en los seres humanos.

1

A la labor de estos dos investigadores debemos también la caracterización de los métodos de la inteligencia en dos categorías: débiles y fuertes; y el importante descubrimiento de que los métodos más generales de la inteligencia son por necesidad métodos débiles, y que los únicos métodos fuertes son los que aplican conocimientos específicos de un dominio particular (por lo que necesariamente deben carecer de generalidad). Este descubrimiento puede expresarse por una ley: a mayor generalidad, menor fuerza; y a mayor fuerza menor generalidad.

Escuelas del pensamiento La IA se divide en dos escuelas de pensamiento: • •

La inteligencia artificial convencional. La inteligencia computacional.

Inteligencia artificial convencional Basada en análisis formal y estadístico del comportamiento humano ante diferentes problemas: Razonamiento basado en casos: ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos. Sistemas expertos: infieren una solución a través del conocimiento previo del contexto en que se aplica y de ciertas reglas o relaciones. Redes bavesianas: propone soluciones mediante inferencia estadística. Inteligencia artificial basada en comportamiento: sistemas complejos que tienen autonomía y pueden auto-regularse y controlarse para mejorar.

Inteligencia artificial computacional La inteligencia computacional (también conocida como inteligencia artificial subsimbólica) implica desarrollo o aprendizaje iterativo (por ej. modificaciones iterativas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose en datos empíricos. Algunos métodos de esta rama incluyen: Maquinas de vectores soporte: sistemas que permiten reconocimiento de patrones genéricos de gran potencia. Redes neuronales: sistemas con grandes capacidades de Reconocimiento de patrones. Modelos oculto de Markov: aprendizaje basado en dependencia temporal de eventos probabilísticos. Sistemas difusos: técnicas para lograr el razonamiento bajo incertidumbre. Ha sido ampliamente usada en la industria moderna y en productos de consumo masivo, como las lavadoras. Computación evolutiva: aplica conceptos inspirados en la biología, tales como población, mutación y supervivencia del mas apto para generar soluciones sucesivamente mejores para un problema. Estos métodos a su vez se dividen en algoritmos evolutivos (ej. Algoritmos genéticos) e inteligencia colectiva (ej. Algoritmo hormiga).

2

Tecnologías involucradas Lenguajes de programación En principio, cualquier lenguaje de programación puede ser utilizado. Siendo así de amplio el espectro en el cual se puede escoger un lenguaje para programar un sistema experto. Atendiendo a la forma de estructurar sus instrucciones, se los puede dividir en: • • • •

IMPERATIVOS: PASCAL, C/C++. FUNCIONALES: LISP. DECLARATIVOS: PROLOG, CHIP, OPS5. ORIENTADOS A OBJETOS: SmallTalk, Hypercard, CLOS.

Tradicionalmente LISP y PROLOG han sido los lenguajes que se han utilizado para la programación de sistemas expertos. Lisp Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico. John McCarthy lo desarrolló en 1958, en el Instituto de Tecnología de Massachusetts (MIT), inicialmente como un lenguaje de programación con el cual los investigadores pudieran implementar eficientemente programas de computadora capaces de razonar. Rápidamente LISP se hizo popular por su capacidad de manipular símbolos y fue escogido para el desarrollo de muchos sistemas de Inteligencia Artificial. Prolog PROgramming in LOGic (PROLOG), es otro de los lenguajes de programación ampliamente utilizados en IA. PROLOG fue desarrollado en Francia, en 1973 por Alain Colmenauer y su equipo de investigación en la Universidad de Marseilles. Inicialmente fue utilizado para el procesamiento de lenguaje natural, pero posteriormente se popularizó entre los desarrolladores de aplicaciones de IA por su capacidad de manipulación simbólica. Utilizando los resultados del grupo francés, Robert Kowalski de la Universidad de Edimburgo, en Escocia, desarrolló la teoría de la programación lógica. La sintaxis propuesta por Edimburgo, se considera el estándar de facto del PROLOG.

3

Panorama de la Inteligencia Artificial Los antecedentes culturales que han servido de base. Algunos de los puntos más importantes son: Se adopta el criterio de que la inteligencia tiene que ver principalmente con las acciones racionales. Desde un punto de vista ideal, un agente inteligente es aquel que emprende la mejor acción posible en una situación dada. Se estudiará el problema de la construcción de agentes que sean inteligentes en este sentido. Los filósofos (desde el año 400 A.C.) permitieron el poder pensar en IA, al concebir a la mente, con maneras diversas, como una máquina que funciona a partir del conocimiento codificado en un lenguaje interno y al considerar que el pensamiento servía para determinar cuál era la acción correcta que había que emprender. Las matemáticas proveyeron las herramientas para manipular las severaciones de certeza lógica, así como las inciertas, de tipo probabilista. Así mismo, prepararon el terreno para el manejo del razonamiento con algoritmos. Los psicológicos reforzaron la idea de que los humanos y otros animales podían ser considerados como máquinas para el procesamiento de información. Los lingüistas demostraron que el uso de un lenguaje ajusta dentro de este modelo. La ingeniería de cómputo ofreció el dispositivo que permite hacer realidad las aplicaciones de IA. Los programas de IA por lo general son extensos y no funcionarían sin los grandes avances en velocidad y memoria aportados por la industria de cómputo.

Criterios de evaluación en I. A Cada campo necesita criterios para evaluar el éxito alcanzado. En general, es muy difícil determinar si una máquina o un sistema tiene inteligencia o puede pensar. Al respecto se han sugerido algunas pruebas entre las que se destaca la de Alan Turing (1912-1954). En 1950 ideó una prueba para reconocer comportamientos inteligentes, esta prueba dice lo siguiente: Si la ejecución de un sistema de IA puede convencernos de que su comportamiento es el que tendría un humano, entonces el sistema es verdaderamente inteligente. En una forma más práctica, para saber si un trabajo de investigación en IA ha tenido éxito, debe hacerse tres preguntas claves: ¿Está definida con claridad la tarea? ¿Existe un procedimiento ya instrumentado que efectúe la tarea? Si no existe, es que debe haber muchas dificultades escondidas en algún lugar. ¿Existe un conjunto de regularidades o restricciones identificables a partir de las cuales el procedimiento implantado obtiene su validez? De no ser así, el procedimiento no pasaría de ser un juguete, tal vez capaz de un desempeño superficial impresionante en ciertos ejemplos seleccionados con cuidado, pero incapaz de impresionar con un desempeño profundo y de resolver problemas más generales.

4

Robótica La ciencia de la robótica implica diferentes técnicas de IA. La idea de un robot "listo" con la capacidad de aprender por experiencia es el tema central de teorías e investigaciones en IA. El robot debe ser capaz de comunicarse en lenguaje natural y debe poder realizar tareas que requieran el equivalente a la iniciativa y la originalidad, esto implica que el robot debe llegar a realizar, tras un periodo de aprendizaje cosas para las cuales no estaba inicialmente programado, a diferencia de los robots que se utilizan actualmente en la aplicación industrial, los cuales no son más que meros autómatas. La idea global en la inteligencia artificial estuvo desacreditada durante varios años debido parcialmente, al excesivo optimismo por parte de la primera teoría pero, mayormente causado por la exageración y el sensacionalismo de algunos de sus divulgadores Los primeros robots creados en toda la historia de la humanidad, no tenían más que un solo fin: entretener a sus dueños. Estos inventores se interesaban solamente en conceder los deseos de entretener a quien le pedía construir el robot. Sin embargo, estos inventores se comenzaron a dar cuenta de que los robots podían imitar movimientos humanos o de alguna criatura viva. Estos movimientos pudieron ser mecanizados, y de esta manera, se podía automatizar y mecanizar algunas de las labores más sencillas de aquellos tiempos. El origen del desarrollo de la robótica, se basa en el empeño por automatizar la mayoría de las operaciones en una fábrica; esto se remonta al siglo XVII en la industria textil, donde se diseñaron telares que se controlaban con tarjetas perforadas.

Cibernética La cibernética es una ciencia interdisciplinaria, tratando con sistemas de comunicación y control sobre organismos vivos, máquinas u organizaciones. El término es una derivación del vocablo griego kybernetes que significa gobernador o piloto, y fue aplicado por primera vez en 1948 a la teoría del control de mecanismos por el matemático americano Norbet Wiener. En el cuerpo humano, el cerebro y el sistema nervioso funcionan para coordinar la información, la cual es utilizada para determinar el futuro curso de una acción;

5

controlar los mecanismos para la autocorrección en máquinas que sirven con un propósito similar. Este principio es conocido como retroalimentación, el cual es fundamental en el concepto de automatización. La cibernética también se aplica al estudio de la psicología, servomecanismo, economía, neuropsicología, ingeniería en sistemas y al estudio de sistemas sociales, el término cibernética no es muy utilizado para describir por separado a un campo de estudio, y muchas de las investigaciones en el campo ahora se centran en el estudio y diseño de redes neuronales artificiales.

Orígenes de la Inteligencia Artificial El amanecer de una nueva ciencia La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas abstractas proporcionaron una representación simbólica de la actividad cerebral. Más adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que se llamó " cibernética", de aquí nacería , sobre los años 50, la Inteligencia Artificial. Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona formalizada de McCulloch y postulaban que: " El cerebro es un solucionador inteligente de problemas, de modo que imitemos al cerebro". Pero si consideramos la enorme complejidad del mismo esto es ya prácticamente imposible, ni que mencionar que el hardware de la época ni el software estaban a la altura para realizar semejantes proyectos. Se comenzó a considerar el pensamiento humano como una coordinación de tareas simples relacionadas entre sí mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas actividades simples. Por lo tanto podemos decir a grandes rasgos que la Inteligencia Artificial es una ciencia que intenta la creación de programas para máquinas que imiten el comportamiento y la comprensión humana, que sea capaz de aprender, reconocer y pensar. En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason [El poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía la viabilidad de la I.A., pero se oponía a ella basándose en razones morales. Hacia 1965, Weizenbaum trabajaba en el MIT(Instituto Tecnológico de Massachusetts), intentando que los ordenadores hablaran en inglés con la gente. Una de esas ideas era que el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía 6

en funcionamiento una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas).

El nacimiento de la I.A. El fracaso de la mayoría de los problemas que intentaban resolver eran demasiado complicados, tanto teórica como tecnológicamente. La lógica teórica fue considerada como el primer programa de IA y usada para resolver problemas de búsqueda heurística. Durante el decenio de 1950 se celebraron congresos, proliferaron los grupos de investigación y en 1954 uno de ellos afirmó haber creado un programa que traducía del ruso al inglés. La verdad es que los resultados prácticos fueron descorazonadoramente escasos. De todas formas, el resultado más espectacular de este período fue el programa de Samuel para Jugar a las damas, que se presentó en 1961 y era capaz de aprender de su experiencia, es decir, tener en cuenta sus errores y éxitos pasados, para determinar sus jugadas en la partida posterior.

Evolución histórica Prehistoria de la IA Así como de alguna forma los soportes mecánicos para la automatización de cálculos aritméticos se sitúan en la prehistoria de los computadores, la prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización hasta mediados del siglo veinte. En este período se producen hechos que podemos agrupar en dos líneas: Una de ellas, directamente relacionada con la construcción de autómatas que simulaban desde el punto de vista externo el comportamiento humano o animal, y que solían funcionar en ayuda de su amo. La otra línea, referente a la información y automatización del razonamiento lógico y matemático. En relación con los autómatas, siempre se ha relacionado la inteligencia con los aparatos mecánicos complejos.

Manipulación del conocimiento Existen tres paradigmas que los investigadores han utilizado tradicionalmente para la resolución de problemas de IA: Programación Heurística.- Está basado en el modelo de comportamiento humano y su estilo para resolver problemas complejos. Existen diversos tipos de programas que incluyen algoritmos heurísticos. Varios de ellos son capaces de aprender de su experiencia. Redes Neuronales Artificiales.- Es una representación abstraída del modelo neuronal del cerebro humano. Las redes están formadas por un gran número de elementos simples y por sus interconexiones Una red neuronal artificial puede ser simulada o ser real. Al elemento procesador de la red, se lo denomina 7

neurona artificial. Evolución Artificial.- Su modelo está basado en el proceso genético de evolución natural, propuesto por Charles Darwin. Se utilizan sistemas simulados en computador que evolucionan mediante operaciones de reproducción, mutación y cruce (Algoritmos Genéticos). Cada paradigma comprende una colección de métodos, configuraciones y técnicas desarrolladas para manipular el conocimiento. En general, una técnica de IA está caracterizada por incluir los siguientes componentes: Procesos de Búsqueda.- Proporciona una forma de resolver problemas para los cuales no hay un método más directo, así como también se constituye en un marco de trabajo dentro del cual cualquier técnica directa puede ser incorporada. Uso del Conocimiento.Proporciona una forma de resolver problemas explotando las estructuras de los objetos involucrados. Abstracción.- Proporciona una forma de separar rasgos importantes y variaciones, de los tantos que no tienen importancia. La manipulación del conocimiento involucra además la selección de objetos, entidades y rasgos que son claves para las representaciones.

Los años difíciles Tales habían sido las expectativas levantadas por la IA, y tantos sus fracasos, que el desánimo sucedió al optimismo inicial. El mundo exterior se desentendió de los trabajos de investigación, y la financiación de muchos proyectos se volvió problemática, tanto en América como en Europa. No obstante, la IA se fue consolidando y, aprendiendo de sus fracasos, buscó nuevos enfoques para los viejos problemas. En el año 1964 se publicó una tesis doctoral sobre el sistema STUDENT, que es un programa de lenguaje natural que comprende y resuelve problemas elevados de álgebra. Es en 1966 cuando se publica, en Comunicaciones de la Asociación para Máquinas Calculadoras, un programa de ordenador para el estudio de comunicación hombre-máquina mediante lenguaje natural interactivo, ELIZA, que fue creado como un programa de psicología que simula respuestas de un terapista en dialogo interactivo con un paciente.

Investigación y desarrollo en áreas de la I.A. Las aplicaciones tecnológicas en las que los métodos de IA usados han demostrado con éxito que pueden resolver complicados problemas de forma masiva, se han desarrollado en sistemas que: • • •

Permiten al usuario preguntar a una base de datos en cualquier lenguaje que sea, mejor que un lenguaje de programación. Reconocen objetos de una escena por medio de aparatos de visión. Generar palabras reconocibles como humanas desde textos computarizados.

8

• •

Reconocen e interpretan un pequeño vocabulario de palabras humanas. Resuelven problemas en una variedad de campos usando conocimientos expertos codificados. Los países que han apadrinado investigaciones de IA han sido: EEUU., Japón, Reino Unido y la CEE; y lo han llevado a cabo a través de grandes compañías y cooperativas de riesgo y ventura, así como con universidades, para resolver problemas ahorrando dinero. Las aplicaciones más primarias de la IA se clasifican en cuatro campos: sistemas expertos, lenguaje natural, robótica y visión, sistemas censores y programación automática.

Cerebro VS. Microprocesador Los microprocesadores son circuitos electrónicos integrados encargados del procesamiento de la información en las computadoras. Las arquitecturas más comunes incluyen: una unidad aritmética y lógica (ALU) encargada de realizar las operaciones; una unidad de control, cuya función es extraer las instrucciones del programa almacenado en memoria, e indicar a los demás dispositivos de la computadora la tarea que deben realizar. La computadora funciona como una unidad de procesamiento, recibiendo los datos a procesar mediante los dispositivos de entrada, y entregando el producto elaborado mediante los dispositivos de salida. Esta actividad la desempeñan con notable precisión y velocidad, y en esto supera seguramente a nuestro cerebro. A diferencia del chip de silicio, nuestro cerebro ha evolucionado durante millones de años. Al intentar simularlo en las computadoras se ha revelado lo difícil que es realizar algunas operaciones que aquél realiza con facilidad. Las operaciones referidas son tareas que realizamos cotidianamente y sin esfuerzo pero requieren cierta característica que las computadoras no poseen.

Velocidad de transmisión Cuando comparamos el funcionamiento del cerebro y el de la computadora, la primera gran diferencia que hallamos es la de la manera de que en ambos se transmite la información. El ordenador maneja datos codificados en códigos binarios, que se representan físicamente mediante dos niveles distintos de energía eléctrica. Esto hace que la velocidad de propagación de los mismos sea muy alta y se mejore con cada nuevo diseño de microprocesador. Por el contrario, la transmisión de la información en el sistema nervioso, se realiza mediante un proceso electroquímico en la membrana de la neurona y mediante la sinapsis, que es el proceso químico con el cual se comunica una neurona con otra. Ambos procesos son mucho más lentos que el paso de energía por los circuitos del ordenador. ¿Cómo se explica entonces que el cerebro sea más eficiente en resolver algunas tareas, si emplea tiempos de transmisión mayores?

9

Características de la I.A. Una de sus características es que incluye varios campos de desarrollo, como la robótica, la comprensión y traducción de lenguajes, el reconocimiento y aprendizaje de palabras de máquinas o los variados sistemas computacionales expertos, que son los encargados de reproducir el comportamiento humano en una sección del conocimiento. Tales tareas reducen costos y riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto y el control de calidad en el área comercial.

Las áreas de investigación de la I.A. Son muchas las áreas de la A I que se investigan hoy día. Entre ellas, tenemos las siguientes: 1. La representación del conocimiento, que busca en el descubrimiento de métodos expresivos y eficientes describir información sobre aspectos del mundo real. 2. Los métodos de aprendizaje automático, que extienden las técnicas estadísticas con el fin de posibilitar la identificación de un amplio rango de tendencias generales a partir de un conjunto de datos de entrenamiento. 3. El campo de la planificación, que enfrenta el desarrollo de algoritmos que construyen y ejecutan automáticamente secuencias de comandos primitivos con el fin de alcanzar ciertas metas de alto nivel. 4. Los trabajos en el área de razonamiento posible, que hacen uso de principios estadísticos para desarrollar codificaciones de información incierta. 5. El estudio de las arquitecturas de agentes, que busca la integración de otras áreas de la I A con el objeto de crear agentes inteligentes, entidades robustas capaces de comportamiento autónomo y en tiempo real. 6. La coordinación y colaboración multiagentes, que ha permitido el desarrollo de técnicas para la representación de las capacidades de otros agentes y la especificación del conocimiento necesario para la colaboración entre ellos. 7. El desarrollo de ontologías, que persigue la creación de catálogos de conocimiento explícito, formal y multipropósito, que puedan ser utilizados por sistemas inteligentes. 8. Los campos de procesamiento de voz y lenguaje, que buscan la creación de sistemas que se comunican con la gente en su lenguaje. 9. La síntesis y comprensión de imágenes, que conduce a la producción de algoritmos para el análisis de fotografías, diagramas y videos, así como también de técnicas para el despliegue visual de información cuantitativa y estructurada.

10

Áreas de aplicación de la I.A. • • • • • • • •

Lingüística computacional Minería de datos (Data Mining) Mundos virtuales Procesamiento de lenguaje Processing) Robótica Sistemas de apoyo a la decisión Videojuegos Prototipos informáticos

natural

(Natural

Language

Algunos casos y antecedentes históricos. Los hitos más importantes en el desarrollo de los sistemas expertos son: 1928 •

John Von Neumann desarrolla su teorema "mínimos y máximos" utilizado posteriormente en juegos.



McCullock y Pitts proponen la arquitectura de redes neuronales para la simulaciones de la inteligencia.



Vannevar Bush publica "As we may think ...", o "Cabría imaginar ... ", en Atlantic Monthly el cual sienta las bases de lo que hoy se conoce como Hipertexto, Multimedia e Hipermedia.



Shannon desarrolla la Teoría de la Información base fundamental de la informática y varias de sus áreas.

• •

Shannon propone el primer programa de ajedrez. Turing publica "Computing machinery and Intelligence".

1943

1945

1949

1950

1956

11

• •

Newell, Shaw, y Simon crean "IPL-11" el primer lenguaje de programación para IA. Newell, Shaw, y Simon crean "The Logic Theorist" para la resolución de problemas matemáticos.

1957 • •

Chomsky escribe "estructuras Sintácticas". Newell, Shaw, y Simon crean GPS.



McCarthy introduce el lenguaje "LISP", para procesamiento simbólico de la información.

• •

Rosenblatt introduce el Perceptron. EL programa de ajedrez de Samuel gana juegos contra grandes jugadores.





ARPA da un fondo de investigación de dos millones de dólares al laboratorio de IA del MIT. Quillian desarrolla las redes semánticas como modelo de representación del conocimiento. Minsky escribe "Steps toward Artificial Intelligence".

• •

Bobrow desarrolla STUDENT. Se comienza el desarrollo de BBNLisp en BBN.





Buchanan, Feigenbaum y Lederberg comienzan el proyecto DENDRAL, el primer Sistema Experto. Iva Sutherland hace demostración del primer Monitor en forma de casco para realidad virtual. Dreyfus argumenta en contra de la IA.



Minsky publica "Semantic Information Processing".



Minsky y Papert critican el Perceptron.

1958

1959

1963



1964

1965



1968

1969

12

1970



Colmerauer desarrolla PROLOG quizás el Inteligencia Artificial más popular actualmente. Winograd crea SCHRDLU.

• •

Dreyfus publica "What Computers Can't Do". Se desarrolla el lenguaje SmallTalk en Xerox PARC.



Shank y Abelson desarrollan los guiones, o scripts, base de muchas técnicas actuales de la Inteligencia Artificial y la Informática en general.



Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos. Minsky publica "A Framework for Representing Knowledge". Se establece la red SUMEX-AIM para aplicaciones de la Inteligencia Artificial en medicina.



lenguaje

de

1972

1973

1974

• •

1975 •

La DARPA lanza un programa de financiación procesamiento y comprensión de imágenes.

para

el

• •

Greenblatt crea "CONS" el primer ordenador con arquitectura para LISP. Lenat introduce su "Automated Matematician".



Xerox comienza a desarrolla ordenadores LISP.



Raj Reddy funda el Instituto de Robótica en la Universidad Carnegie Mellon.

1976

1978

1979

13

1980 •

Primera conferencia de la AAAI (American Association on Artificial Intelligence) en Stanford, y primera Conferencia de Lisp y programación funcional de la ACM.



Kazuhiro Fuchi anuncia el proyecto japonés de quinta generación de computadores. El PSL (Portable Standard Lisp) se puede ejecutar sobre varias plataformas. Se construyen máquinas LISP por Xerox, LMI y Simbolics, las cuales soportan Programación Orientada a Objetos. Se sientan las bases del Common Lisp con aspectos comunes de las familias: Lisp machine Lisp, MacLisp, NIL, S-1 Lisp, Spice Lisp y Scheme.

1981

• • •

1982 •

John Hopfield resucita las redes neuronales.



Feigenbaum y McCorduck publican "The Fifth Generation".

• • •

Steele publica "Common Lisp the Language". La comunidad europea comienza el programa ESPRIT. Gold Hill crea el Golden Commom Lisp.



General Motors y Campbell's Soup dejan de usar Lisp para sus Sistemas Expertos. Se funda el Media Lab en el MIT. Minsky publica "The Society of Mind". Teknowledge, una compañía dedicada al desarrollo de sistemas en Inteligencia Artificial, abandona Lisp y Prolog por el lenguaje C.

1983

1984

1985

• • •

1986 •

• •

Primera conferencia de la OOPSLA sobre programación orientada a objetos, en la cual se presenta CLOS, Lisp Orientado a Objetos, como lenguaje independiente de la comunidad de Lisp e IA. IBM desarrolla shells para Lisp, Prolog y Sistemas expertos y entra a la AAAI. McClelland y Rumelhart's publican "Parallel Distributed Processing" (Redes Neuronales). 14



Aparecen compañías Neuronales.

dedicadas

al

desarrollo

de

Redes

• •

Existen alrededor de 1900 Sistemas Expertos en el mundo. Sistema experto XCON de DEC capaz de configurar ordenadores realizando el trabajo de 300 personas, basándose para esto en 10.000 reglas. Japón establece su sistema AFIS para la identificación automática de huellas digitales.

1987



1988 • • • •

El chip del 386 ofrece una velocidad a los PC’s comparable a la de las máquinas Lisp. Minsky y Papert publican una revisión de "Perceptrons". Se establecen los lenguajes Orientados a Objetos. La compañía TI anuncia microExplorer una máquina Lisp con tecnología Macintosh.

1990 •

Steele publica la segunda edición de "Common lisp the Language".



Apple Computer introduce el lenguaje Dylan, de la familia Lisp, como su visión del futuro en la programación. X3J13 crea una propuesta para la Sociedad Americana de Common Lisp.

1992



1994 •

La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza en sistema de intercambio de AT&T.

15

Conclusión El contraste anotado nos lleva a una conclusión que queremos consignar aquí como nota final de este artículo. Todo parece indicar que las computadoras, debidamente programados con las técnicas de alto nivel propias de la IA, pueden descollar en el campo de la pericia, es decir, de la solución de problemas especializados; por su parte, el intelecto humano parece insustituible en relación con la solución de problemas de sentido común. Se impone entonces fomentar la asociación de hombre y máquina en sistemas de cooperación simbiótica y sinergética; hombre y máquina se necesitan mutuamente para solucionar eficazmente los problemas, y de la interacción entre ambos resulta una energía intelectual muy superior a la de la suma de sus partes. (Comunicación personal). En cuanto a Minky, él no cree que sea productivo definir la inteligencia. Le parece que mientras no sepamos cómo trabaja el cerebro, el intento solo puede crear confusión (comunicación personal).

16

Related Documents


More Documents from "elranchero_chido"

Videos Taller.docx
May 2020 48
Dostoievski.pdf
May 2020 40
Libro1.xlsx
December 2019 32
December 2019 26
May 2020 11