Quinta Generación De Computadoras.docx

  • Uploaded by: Mercedes Rojas
  • 0
  • 0
  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Quinta Generación De Computadoras.docx as PDF for free.

More details

  • Words: 5,277
  • Pages: 18
INTRODUCCIÓN

La tecnología desde tiempos antiguos ha evolucionado, desde que el hombre empezó a hacer uso de su memoria, empezó a descubrir cosas que le servirían para sobrevivir, sin embargo eso no fue todo sino que comenzó a desarrollar nuevos inventos para que le fueran útiles para ahorrar tiempo y realizar menos esfuerzo. Es ahí donde la tecnología comienza a surgir, desde esos tiempos hasta la actualidad la tecnología ha traído grandes innovaciones que sin duda alguna ha trascendido en la vida de la sociedad. Cada día surge algo nuevo, interesante, pero ante todo útil, es por ello que la ciencia y la tecnología van de la mano. La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo llevaron a través de los siglos al desarrollo de

lo

que

hoy

conocemos

como

la computadora.

Desde

el ábaco hasta las computadoras personales, éstas han tenido una gran influencia en diferentes aspectos de la vida, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas para la humanidad.

QUINTA GENERACIÓN DE COMPUTADORAS Las computadoras de quinta generación son computadoras basadas en inteligencia artificial. La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra.

Antecedentes y Diseño del Proyecto A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado de llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industrias y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado. Los campos principales inicialmente eran:  

para

la investigación de

este

proyecto

Tecnologías para el proceso del conocimiento Tecnologías para de conocimiento masivo

procesar bases



Sitios de trabajo del alto rendimiento



Informáticas funcionales distribuidas



Supercomputadoras para el cálculo científico

de

datos y

bases

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países. Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.

Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemastales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP. Tambien se ha hablado de que la quinta generacion incluye el uso de sistemas expretos estos son aplicaciones de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos deaprendizaje fundamentados en sistemas expertos e inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.

Características Estructurales: Estarán

hechas

con

microcircuitos

de

muy

alta integración,

que

funcionaran con un alto grado de paralelismo, imitando algunas características de las redes neurales con las que funciona el cerebro humano.  

Computadoras con Inteligencia Artificial Interconexión entre todo tipo de computadoras, dispositivos y redes integradas



Integración de datos, imágenes y voz (entorno multimedia)



Utilización del lenguaje natural (lenguaje de quinta generación)



Empleo de programas de mayor nivel



Nuevos dispositivos de entrada y salida

Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas

necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. En cuanto a la Inteligencia Artificial, su propósito es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño es la capacidad del Computador para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento. En esencia, la Computadora aprenderá a partir de sus propias experiencias, usará sus datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

Aplicaciones generación:

de

la Informática en

cuanto

a

la

quinta

Disponemos de muchos y variados ejemplos del desarrollo tecnológico que está en inicios. En ellos juegan un papel destacado la computación, la microelectrónica, los microprocesadores, la robótica y los sistemas expertos y nos presentan, con cierta aproximación, una visión de lo que puede ser el futuro. Veamos algunos de los equipos que ya pueden encontrarse en el mercado, o bien han sido previstos y considerados como un objetivo posible. 

Sistemas Domésticos de Control:

Se conocen ya los primeros modelos de sistemas domésticos de control, objeto de una nueva disciplina llamada demótica. Consiste en mecanismos de control remoto diseñado para un uso en domicilios particulares, con un sistema de ese tipo y una instalación adecuada de periféricos, es posible controlar y operar sobre todos o casi todos los elementos de la casa. El sistema dispone de una unidad central que permite programar digital o gráficamente las funciones deseadas y ordenar su ejecución de manera inmediata o diferida. 

Automóviles:

Una automatización -inteligente- se esta introduciendo desde la década de los 80 en los automóviles. No solo se trata de las computadoras de abordo que controlan partes fundamentales del vehículo y que informan verbalmente de las incidencias, sino de aplicaciones que afectan a la seguridad mediante automatismo muy eficaces, como es el caso de los frenos ABS, del airbag, del control de la velocidad para que no peligre la estabilidad y el dominio del automóvil.



Robots:

La década de los 80 dio lugar a notables progresos en robótica. Desde una tarea tan simple como la de quitar el polvo con una aspiradora y esquivar convenientemente los obstáculos (que no siempre son los mismos ni están en el mismo sitio) y la maniobra para eludirlos y seguir trabajando con la aspiradora. 

Lenguaje Natural:

Un gran objetivo es el tratamiento del lenguaje natural. Consiste en que las computadoras (y sus aplicaciones en robótica) puedan comunicarse con las personas sin ninguna dificultad de comprensión, ya sea oralmente o por escrito. Aquí encontramos la realización de un sueño largamente aliéntalo: hablar con las maquinas, que entiendan nuestra lengua y se hagan entender en ella. La síntesis del lenguaje y el reconocimiento de la voz son dos aspectos del mismo propósito. Los logros que se han conseguido resultan a todas luces parciales e insuficientes, pero alentadores.

INTELIGENCIA ARTIFICIAL Concepto La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Una tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace unos años está presente en nuestro día a día a todas horas.

Tipos de inteligencia artificial Los expertos en ciencias de la computación Stuart Norvig diferencian varios tipos de inteligencia artificial:

Russell y Peter



Sistemas que piensan como humanos: automatizan actividades como la toma de decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes neuronales artificiales.



Sistemas que actúan como humanos: se trata de computadoras que realizan tareas de forma similar a como lo hacen las personas. Es el caso de los robots.



Sistemas que piensan racionalmente: intentan emular el pensamiento lógico racional de los humanos, es decir, se investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se engloban en este grupo.



Sistemas que actúan racionalmente: idealmente, son aquellos que tratan de imitar de manera racional el comportamiento humano, como los agentes inteligentes.

Aplicaciones prácticas de la inteligencia artificial La inteligencia artificial está presente en la detección facial de los móviles, en los asistentes virtuales de voz como Siri de Apple, Alexa de Amazon o Cortana de Microsoft y está integrada en nuestros dispositivos cotidianos a través de bots (abreviatura de robots) o aplicaciones para móvil, tales como: , se abre en ventana nueva., un personal shopper en versión digital; se abre en ventana nueva., concebida para ayudarnos con el aprendizaje de idiomas; se abre en ventana nueva., diseñada para hacernos un poco más llevadera la ardua tarea de encontrar nuevo piso; o externo, se abre en ventana nueva., un asistente virtual de Facebook que emite 'diagnósticos' médicos. El objetivo de todas ellas: hacer más fácil la vida de las personas. Los avances en IA ya están impulsando el uso del big data debido a su habilidad para procesar ingentes cantidades de datos y proporcionar ventajas comunicacionales, comerciales y empresariales que la han llevado a posicionarse como la tecnología esencial de las próximas décadas. Transporte, educación, sanidad, cultura... ningún sector se resistirá a sus encantos. En las últimas décadas ha avanzado la utilización de los computadores como herramientas de trabajo, evidencia de esto es: 

Las Técnicas de INTELIGENCIA ARTIFICIAL



Los ROBOTS, que realizan actividades físicas y de cálculo



Los SISTEMAS EXPERTOS, basados en la experiencia humana: diagnósticos médicos, reparación de equipos, elección de rutas para vehículos,.

Sintetizando el tema se puede decir que la característica principal de esta generación sería la aplicación de la inteligencia artificial. Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando paralamente, además de esto pueden reconocer voz e imágenes. Pero más sorprendente aún, tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL Para el desarrollo de la inteligencia Artificial hay algunas disciplinas que han contribuido con ideas, puntos de vista y técnicas con el único objetivo de hacer avanzar la IA (Gráfico 1).

FILOSOFÍA (desde el año 428 a.C. hasta el presente).En esta disciplina muestra como los filósofos facilitaron el poder imaginar la inteligencia artificial, al pensar que la mente funciona como una maquina a partir del conocimiento codificado en un lenguaje interno, ademas al suponer que el pensamiento servía para seleccionar la acción a llevar a cabo ( Russell y Norvig, 2004).

MATEMÁTICAS (aproximadamente desde el año 800 al presente).Según Russell y Norvig (2004), los filósofos delimitaron las ideas más importantes de la IA, puesto que para pasar a ser una ciencia se necesita una formulación matemática en tres áreas la lógica, la complejidad y la probabilidad. Gráfico 3. Acontecimientos mas destacados de la matemáticas

ECONOMÍA (desde el año 1776 hasta el presente).La mayoría de las personas cree que la economía se trata solo de dinero pero los economistas realmente estudian cómo la gente toma decisiones que les llevan a obtener los beneficios esperados. Por consiguiente se podría afirmar que los bienes económicos son condición necesaria pero no suficiente para que la persona alcance sus fines, como la felicidad y la realización personal (Resico, 2011). Esta disciplina se basa en las teorías de la toma de decisiones, la teoría de juegos y la investigación operativa. NEUROCIENCIA (desde el año 1861 hasta el presente).Busca saber y entender cómo es que el cerebro puede procesar toda la información.

Gráfico 5. Principales autores teorías sobre neurociencia

Las neuronas son células que forman el cerebro humano y animal. Con un tamaño variable y comprendido entre 3 y 1000 µ son células excitables al exhibir la propiedad de transmisión de señales de una a otra (Gráfico 6). Una de las características es su organización, diferenciado el soma, el axón y las dendritas de esta manera se puede considerar un modelo general de neuronas incluyendo las características input y output (Lahoz, 2004).

Gráfico 6. Neurona y sus partes

PSICOLOGÍA (desde el año 1879 hasta el presente).Trata de entender cómo piensan y actúan las personas. Gráfico 7. Acontecimientos mas importantes de la Psicología

INGENIERÍA COMPUTACIONAL (desde el año 1940 Hasta el presente).Esta rama es la encargada del software y hardware. Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas: inteligencia y un artefacto.

Gráfico 8. Principales acontecimientos de la ingeniería computacional

TEORÍA DE CONTROL Y CIBERNÉTICA (desde el año 1948 hasta el presente).se basa en la construcción de sistemas autónomos es decir sistemas que maximizan una función objetivo en el tiempo. Gráfico 9. Acontecimientos mas importantes de la teoría de control y cibernética

LINGÜÍSTICA (desde el año 1957 hasta el presente).No es más que la representación del conocimiento en forma de gramática de la lengua. Uno de los acontecimientos mas destacados en esta disciplina fue en 1957, B. F. Skinner publico la obra que presentaba una visión extensa y detallada desde el enfoque conductista al aprendizaje del lenguaje , y estaba escrita por los expertos más destacados de este campo (Russell y Norvig, 2004).

Historia De Los Sistemas Expertos Estas pensando que la inteligencia artificial es una cosa de los últimos 3, 5 o como mucho los 10 últimos años, pero NO!, los primeros pasos en la inteligencia artificial se dieron en los !AÑOS 50!. Tu te imaginas crear un programa inteligente con el Hardware de esa época. Sencillamente es increíble. A comienzos de los años 50 el conocido Alan Mathinsong Turing publicó "Inteligencia y Funcionamiento de las Máquinas" con el fin de demostrar hasta que punto estas tienen inteligencia. En estos años se dieron varias definiciones de lo que significaba la inteligencia en una máquina. Sobre lo que denominamos la inteligencia artificial. Definición de Elaim Reich: La inteligencia artificial es el estudio de cómo hacer que los ordenadores hagan cosas que, en estos momentos, hace mejor el hombre. Definición de Alexander Sporl (1971): En su obra "Sporls-Computerbuch": Bajo Inteligencia entiendo la capacidad de un ser vivo o una máquina de ordenar informaciones, extensas observaciones, experiencias, descubrir interrelaciones para abstraer de esta forma cosas y poderlas ligar entre sí

Uno de los primeros sistemas expertos se llamó Dendral y era capaz de calcular o descubrir hechos relativos a la estructura molecular a partir de unos datos químicos sin elaborar.Otro sistemas expertos famosos son MYCIN que diagnostica enfermedades de la sangre y que sugiere un tratamiento y PUFF, un sistema similar pero para enfermedades de pulmón. En el año 1950 el campo de la automática recibe un gran impulso cuando Wiener desarrolla el principio de la retroalimentación. La teoría de la retroalimentación es base fundamental de los sistemas de control. En 1955 Newell y Simon desarrollan la Teoría de la lógica. Este desarrollo permitió desarrollar un programa que exploraba la solución a un problema utilizando ramas y nudos, seleccionando únicamente las ramas que más parecían acercarse a la solución correcta del problema.

En 1956, se celebra una conferencia en Vermont (USA) de gran trascendencia en el desarrollo de la I.A. John McCarthy propone por primera vez el uso del término "Inteligencia Artificial" para denominar el estudio del tema. En 1957, aparece la primera versión de "The General Problem Solver" (GPS, Solucionador general de problemas), un programa capaz de solucionar problemas de sentido común pero no problemas del mundo real como diagnósticos médicos. El GPS utilizaba la teoría de la retroalimentación de Wiener.. En 1958 McCarthy anuncia su nuevo desarrollo el lenguaje LISP (LISt Procesing), el lenguaje de elección para todos aquellos desarrolladores inmersos en el estudio de la IA. En 1963, el Instituto Tecnológico de Massachussets (MIT) recibe una subvención de 2,2 millones de dólares del gobierno de los Estados Unidos en concepto de investigación en el campo de la IA. De esa forma, se comprueba la importancia que el Gobierno concede a la investigación dentro de ese campo. En 1965 aparece DENDRAL, el primer sistema experto. Es en ese año cuando Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. El objetivo de DENDRAL fue estudiar un compuesto químico. El descubrimiento de la estructura global de un compuesto exigía buscar en un árbol las posibilidades, y por esta razón su nombre es DENDRAL que significa en griego "árbol".Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, estar era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos. La realización de DENDRAL duró más de diez años (1965-1975). Se le puede considerar el primer sistema experto.

En 1965 también se empezaron a utilizar técnicas para la resolución de problemas que se caracterizaban por la búsqueda heurística como modelo para la resolución de problemas, y con ellas comenzó la investigación y desarrollo de los sistemas expertos. En 1972, en la Universidad de Standford se desarrolla MYCIN, sistema experto dentro del campo de la medicina para diagnóstico de enfermedades infecciosas en la sangre. MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el prog rama era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características de la persona, tales como el peso corporal de este. Al mismo tiempo, Davir Marr propone nuevas teorías sobre la capacidad de reconocimiento visual de las diferentes máquinas. En 1972 aparece el lenguaje PROLOG basado en las teorías de Minsky. En 1973 se desarrolla el sistema experto llamado TIERESIAS. El cometido de este sistema experto era el de servir de intérprete entre MYCIN y los especialistas que lo manejaban, a la hora introducir nuevos conocimientos en su base de datos. El especialista debía utilizar MYCIN de una forma normal, y cuando este cometiera un error en un diagnóstico (hecho producido por la falta o fallo de información en el árbol de desarrollo de teorías) TEIRESIAS corregiría dicho fallo destruyendo la regla si es falsa o ampliándola si es eso lo que se necesita. En 1979 aparece XCON, primer programa que sale del laboratorio Su usuario fue la Digital Equipament Corporation (DEC). El cometido de XCON sería configurar todos los ordenadores que saliesen de la DEC. El proyecto presentó resultados positivos y se empezó a trabajar en el proyecto más en serio en diciembre de 1978. En abril de 1979 el equipo de investigación que lo había diseñado pensó que ya estaba preparado para salir, y fue entonces, cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año funcionó con resultados positivos en la DEC. En 1980 se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. El XCOM supuso un ahorro de cuarenta millones de dólares al año para la DEC. Entre los años 80 a 85 se produce la revolución de los Sistemas Expertos En estos 5 años se crearon diversos sistemas expertos como el DELTA, de

General Electric Company, para la reparación de locomotoras diesel y eléctricas. "Aldo en Disco" para la reparación de calderas hidroestáticas giratorias usadas para la eliminación de bacterias. Se crearon multitud de empresas dedicadas a los sistemas expertos como Teknowledge Inc., Carnegie Group, Symbolics, Lisp Machines Inc., Thinking Machines Corporation, Cognitive Systems Inc. formando una inversión total de 300 millones de dólares. Los productos más importantes que creaban estas nuevas compañías eran las "máquinas Lisp", que se trataba de unos ordenadores que ejecutaban programas LISP con la misma rapidez que en un ordenador central, y el otro producto fueron las "herramientas de desarrollo de sistemas expertos".

En 1987 XCON empieza a no ser rentable. Los técnicos de DEC tuvieron que actualizar XCOM rápidamente llegándose a gastar más de dos millones de dólares al año para mantenimiento y algo parecido ocurrió con el DELTA.. También en 1987 aparecieron los microordenadores Apple y compatibles IBM con una potencia parecida a los LISP. El software se transfirió a máquinas convencionales utilizando el lenguaje "C" lo que acabó con el LISP. A partir de los 90 y con el desarrollo de la informática, se produce un amplio desarrollo en el campo de la IA y los sistemas expertos, pudiéndose afirmar que estos se han convertido en una herramienta habitual en determinadas empresas en la actualidad. La evolución histórica de los métodos utilizados en el desarrollo de los sistemas expertos también se ha producido a medida que se ha ido desarrollando la IA y los diferentes métodos que se han empleado para su resolución. El desarrollo de lenguajes como LISP y PROLOG condicionó esa evolución, así como investigaciones en diversos campos relacionados. Los primeros sistemas expertos que se desarrollaron en los años 60 eran capaces de resolver solo problemas basados en situaciones determinadas, mediante sistemas de reglas Es a partir de los 70 cuando se empiezan a resolver problemas basados en situaciones inciertas, basados en medidas difusas al principio y en redes probabilísticas con posterioridad

Definiciones De Sistemas Expertos ¿Qué es unos sistemas experto? Los sistemas expertos forman parte de un firme y verdadero avance en inteligencia artificial. Los sistemas expertos pueden incorporar miles de reglas. Para una persona seria una experiencia casi "traumática" el realizar una búsqueda de reglas posibles al completado de un problema y concordar estas con las posibles consecuencias, mientras que se sigue en un papel los trazos de un árbol de búsqueda.

Los sistemas expertos realizan amablemente esta tarea; mientras que la persona responde a las preguntas formuladas por el sistema experto, esta busca recorriendo las ramas más interesantes del árbol, hasta dar con la respuesta a fin al problema, o en su falta, la más parecida a esta. Los sistemas expertos tienen la ventaja frente a otros tipos de programas de Inteligencia Artificial, de proporcionar gran flexibilidad a la hora de incorporar nuevos conocimientos. Para ello solo tenemos que introducir la nueva regla que deseemos hacer constar y a está, sin necesidad de cambiar el funcionamiento propio del programa. Los sistemas expertos son "auto explicativo", al contrario que en los programas convencionales, en los que el conocimiento como tal está encriptado junto al propio programa en forma de lenguaje de ordenador. Los expertos de I.A. dicen que los sistemas expertos tienen un conocimiento declarativo, mientras que en los demás programas es procedural. Descripción Del Esquema Para realizar un sistema experto integran dos personas el Experto del Dominio (profesional X) y un Ingeniero de Conocimiento (programador), que estos van enlazar sus experiencias almacenándolos en la Base de conocimientos que mediante la interface va a permitir al usuario llegar a comunicarse con el motor de inferencia, el cual es va a tomar la decisión de aplicar todo lo almacenado en la base de conocimientos. La Base de conocimiento nos halla la base datos y esta esta compuestas por lenguajes de predicado, esta es uno de los componentes que contiene el conocimiento del experto o también llamado base de datos, su función es almacenar experiencias, conocimientos, etc. de una determinada área.

Existen dos tipos de base de conocimiento: El procedural; Se usa en los lenguajes. estructurados como son Pascal, C, Visual Basic etc. El declarativo; Está basado en hechos que vienen a ser acciones que se dan dentro del problema se utilizan los lenguajes Prolog y Lisp. El Motor de Inferencia Su función es administrar, como, cuando, y las reglas de producción que se aplicaran para la solución de un determinado problema Dirige y controla la implementación del conocimiento, además permite decidir que tipo de técnicas se usaran durante el diseño del sistema experto. La Interface Parte que permite la comunicación con el usuario, en forma vidirecciona l(ambos lados). Mediante al Interface el Motor de Inferencia reconoce la

pregunta y saca datos de la Base de Conocimiento y mediante la Interface responde la pregunta Descripción del esquema: DEMONIO; Es la parte principal de la estructura de control el cual va seguir un encadenamiento hacia atrás y hacia delante y esta a su vez está compuesta de dos campos específicos PROCEDIMIENTOS ESPECIALES son los pasos a seguir compuestas por reglas, normas de producción, ELEMENTOS DE METACONOCIMIENTO compuestas por redes neuronales, por que está e la capacidad de aprender, entender y responder a la pregunta realizada por un usuario. Todo esto se interactúa a partir de cierto conocimiento deducido durante la ejecución de la aplicación. Esto nos va a conllevar a una RUPTURA en la que el demonio retorna para cumplir un funcionamiento sistemático usando tipos de búsqueda implementada y completa. Primero se da el primer funcionamiento del motor de estructura que esta dado con los procedimientos especiales y con los elementos de metaconocimiento, todo esto experimentado lo vamos a llevar al principal funcionamiento sistemático con una búsqueda implementada, para dar lugar a un respuesta satisfactoria para quien lo está usando o manejando. Explicamos la arquitectura, como Base de Conocimientos vamos a tener hechos y reglas de un sistema determinado las cuales van a ser codificadas para que la computadora puede interpretar, y ser utilizada adecuadamente por los usuarios y de acuerdo a la aplicación. Estos resultados van a servir a otros sistemas y que estos van a alimentar a nuestras bases de conocimientos originales para obtener mejores resultados. Lenguajes de programación Son programas que se han diseñado principalmente para emular un comportamiento inteligente. Incluyen algoritmos de juego tales como el ajedrez, programas de comprensión del lenguaje natural, visión por computadora, robótica y "sistemas de expertos". responde a una interfaz ensamblador, el segundo a interfaz compilador y el ultimo a interfaz interprete. Un Lenguaje de Programación se basa en reglas de acción (silogismos) , y el análisis de posibilidades dándonos una ayuda muy útil en todas las ramas de la acción humana. Es así como los Sistemas Expertos desarrollan una Función muy importante "Realizar tareas genéricas: es decir para la monitorización y el diagnóstico, además de los trabajos de simulación de la realidad (Realidad Virtual en la actualidad) . Algunos lenguajes son lenguajes principalmente interpretados, como APL,

PROLOG y LISP. :. APL (A Programing Language) Diseñado para tablas, vectores y matrices; utiliza símbolos especiales, distintos que el ASCII. HISTORIA: Introducido por Kenneth Iverson, en el año de 1962. Durante los siguientes 7 años IBM trabajo en el APL, defino un conjunto de caracteres y un lenguaje "APL/360", el cual se requiere un hardware especial. Conceptos lisp: 

Listas y Átomos: La estructura más importante es la lista. Los átomos pueden subordinarse a cualidades.



La Función: Cada función LISP y cada programa LISP tiene estructura de lista. Los programas no pueden distinguirse sintácticamente de los datos. LISP ofrece sus propias funciones básicas.



Forma de Trabajo: LISP es un lenguaje funcional. Ofrece la posibilidad de realizar definiciones recursivas de funciones. La unión de procedimientos se realiza de forma dinámica, es decir en plena ejecución, y no como en otros lenguajes de programación. El sistema realiza automáticamente una gestión dinámica de memoria.

Entonces: La estructura más importante en LISP es la lista Componentes de un sistema lisp. Un componente importante de un sistema LISP es la gestión dinámica de la memoria. El sistema administrará el espacio en la memoria para las listas en constante modificación, sin que el usuario lo deba solicitar. Libera los espacios de memoria que ya no son necesarios y los pone a disposición de usos posteriores. La necesidad de este proceso se deriva de la estructura básica de LISP, las listas, que se modifican de forma dinámica e ilimitada. Además un sistema LISP abarca bastante más que el solo intérprete del lenguaje LISP. Consta de algunos módulos que ofrecen ayuda en el desarrollo y control del progreso en programas, como son el Editor, el File-System y el Trace.

PROLOGO (Programación Lógica Mecanismos Del Prolog La Recursividad representa la estructura más importante en el desarrollo del programa. En la sintaxis del PROLOG no existen los bucles FOR ni los saltos; los bucles WHILE son de difícil incorporación, ya que las variables sólo pueden unificarse una sola vez. La recursión es más apropiada que

otras estructuras de desarrollo para procesar estructuras de datos recursivas como son las listas y destacan en estos casos por una representación más sencilla y de mayor claridad. La Instanciación es la unión de una variable a una constante o estructura. La variable ligada se comporta luego como una constante. La Verificación es el intento de derivar la estructura a comprobar de una pregunta desde la base de conocimientos, es decir, desde los hechos y reglas. Si es posible, la estructura es verdadera, en caso contrario es falsa. La Unificación es el componente principal de la verificación de estructuras. Una estructura estará comprobada cuando puede ser unificada con un hecho, o cuando puede unificarse con la cabecera de una regla y las estructuras del cuerpo de dicha regla pueden ser verificadas.

CONCLUSIÓN

En las últimas décadas ha avanzado la utilización de los computadores como herramientas de trabajo, evidencia de esto es: Las Técnicas de INTELIGENCIA ARTIFICIAL, Los ROBOTS, que realizan actividades físicas y de cálculo, Los SISTEMAS EXPERTOS, basados en la experiencia humana: diagnósticos médicos, reparación de equipos, elección de rutas para vehículos,. Sintetizando el tema se puede decir que la característica principal de esta

generación

computadoras

de

sería esta

la

aplicación

generación

de

la inteligencia

contienen

una

gran

artificial. cantidad

Las de

microprocesadores trabajando paralamente, además de esto pueden reconocer voz e imágenes. Pero más sorprendente aún, tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. Con respecto a la inteligencia artificial

se a beneficiado de varias

disciplinas como son: la filosofía, matemáticas, Economía, neurociencia entre otras las cuales han contribuido con ideas, puntos de vista y técnicas para su

desarrollo puesto que estas tienen un solo objetivo en común que IA avance día a día.

BILIOGRAFIA 

Resico, M. 2011. Introducción a la economía. (En línea). Consultado, 1 de oct. 2015. Disponiblenen: http://www.kas.de/upload/dokumente/2011/10/SOPLA_Einfuehr ung_SoMa/parte1_1.pdf



Lahoz, R. 2004. Bioinformática: Simulación, vida artificial e inteligencia artificial. 1ed. Ediciones Días Santos S.A. Madrid, ES. p 389

Related Documents

Quinta De Viluco
October 2019 11
14 De Agosto Quinta
October 2019 14
Quinta Nobile
October 2019 24
Unidad Quinta
November 2019 19
Quinta Disciplina
August 2019 32
Quinta Aproximacion
April 2020 14

More Documents from "Manuel Hidalgo Herrera"

May 2020 10
May 2020 6
November 2019 14
November 2019 15
Cv_english_feb2018[1].pdf
October 2019 20
Le Tabagisme
December 2019 14