EL COGNITIVISMO Y SUS VICISITUDES Mabel Inés Falcón Profesora de Psicología Facultad de Ciencias Humanas U.N.S.L.- Argentina e-mail:
[email protected] Introducción: En este trabajo se tratará de efectuar una síntesis sobre las principales ideas que caracterizaron el desarrollo de la ciencia cognitiva, entendiendo por tal el paradigma científico que intentó… el análisis de la mente humana en términos de procesamiento de la información (SIMON, 1987, p.26). En esta concepción, la investigación cognitiva se orientó hacia el estudio de la inteligencia, sus características y naturaleza, prescindiendo de la sustancia soporte o “hardware” que la contiene. Hemos aprendido que la inteligencia no es una cuestión de sustancia –sea protoplasma o cristal y alambre- sino de formas que la sustancia toma y de procesos por los que pasa… La inteligencia es mente implementada con cualquier tipo de materia diseñable. (SIMON, 1987, p.26). La hipótesis cognitiva sostiene que su objeto es el estudio de sistemas cognitivos constituidos por símbolos físicos, en consecuencia, las computadoras brindan un modelo mecánico del pensamiento, en otras plalabras, que el pensamiento consiste en la computación física de símbolos. El nacimiento de la ciencia cognitiva, expresado en estos términos, provocó diversas reacciones en el mundo científico e incluso en el individuo corriente que sintió –y siente- que su capacidad de pensar, de resolver problemas e –incluso- ocupar un espacio laboral, se ve amenazado por los nuevos desarrollos científicos y tecnológicos puestos en marcha. La confrontación cerebro vs. Máquina, amenaza con una nueva herida narcisista para el sujeto humano, hasta ahora monarca indiscutido entre los seres inteligentes que, como el aprendiz de brujo, comienza a producir un monstruo que se teme –más de las veces injustificadamentetermine acabando y consumiendo a su creador. Desde una perspectiva socio-política y económica, coincidiendo con Francisco VARELA (1998), es importante señalar el peso que el control hegemónico de las investigaciones y desarrollos realizados en los Estados Unidos –sobre todo en el MIT- han tenido y tienen sobre el resto de la comunidad científica. Esta carga se manifiesta en posturas categóricas que parecen ignorar los desarrollos y enfoques previos que se han realizado sobre el tema de los procesos cognitivos, en especial en Europa. Otro aspecto significativo se centra en la limitación impuesta a las ciencias cognitivas por esta línea de investigación al restringir su accionar y abordar el tema de la inteligencia y de la cognición exclusivamente desde lo computacional. La hipótesis cognitivista A comienzos de los años cincuenta, el desarrollo alcanzado por las computadoras, dio origen a la perspectiva cognitivista, es decir a la postura de un grupo de científicos que, como ya se ha señalado, sostenían que las computadoras eran sistemas para manipular símbolos físicos. Desde esta perspectiva, la cognición podía ser definida como sinónimo de la computación. Esto significa que un cómputo es una operación realizada mediante símbolos, es decir, mediante elementos que representan algo para alguien/algo que los interpreta. La computadora se convirtió el modelo para abordar a la mente humana, esto debido a que para los cognitivistas, aún cuando la computadora y el cerebro estuvieran constituidos por estructuras y mecanismos totalmente diferentes, en cierto nivel de abstracción, compartían una descripción funcional común. En otros términos, tanto la computadora como el cerebro humano podían considerarse como dispositivos que generaban comportamientos
inteligentes, en la medida que podían manipular símbolos mediante reglas formales. Esta conclusión fue expresada por Newell y SIMON (1987) mediante la siguiente hipótesis: Un sistema de símbolos físicos cuenta con los medios necesarios y suficientes para realizar acciones inteligentes generales. Con “necesarios” queremos decir que cualquier sistema que exhiba inteligencia general, demostrará con análisis, ser un sistema de símbolos físicos. Con “suficientes” queremos decir que cualquier sistema de símbolos físicos de tamaño suficiente puede organizarse, a fin de exhibir una inteligencia general. (DREYFUS, 1994, p.345) En el discurso del texto antedicho, la idea clave es la de representación, o la de “intencionalidad”, el término filosófico que designa algo que es acerca de algo1. El argumento cognitivista afirma que la conducta inteligente supone la capacidad para representar el mundo de ciertas maneras. Por lo tanto, la conducta cognitiva se puede explicar aceptando que un agente o dispositivo actúa representando rasgos relevantes de las situaciones en que se encuentra. En la medida que logre que la representación de esa situación sea exacta, la conducta tendrá éxito. El programa de investigación cognitivista se puede sintetizar en las respuestas a las siguientes preguntas: Pregunta 1: ¿Qué es la cognición?; Respuesta: Es procesamiento de información: manipulación de símbolos basada en reglas. 2: ¿Cómo funciona? Respuesta: A través de cualquier dispositivo que pueda representar y manipular elementos físicos discretos: los símbolos. El sistema interactúa sólo con la forma de los símbolos (sus atributos físicos), no con su significado 3: ¿Cómo saber que un sistema cognitivo funciona adecuadamente? Respuesta: Cuando los símbolos representan apropiadamente un aspecto del mundo real, y el procesamiento de la información conduce a una feliz solución del problema planteado al sistema (VARELA, 1998, p.43-44). Esta noción de la representación no deja de plantear discusiones. Lo controvertido surge cuando el cognitivismo afirma que el único modo de dar cuenta de la inteligencia se asienta en el hecho de que la cognición actúa sobre la base de representaciones que adquieren realidad física, cuando toman la forma de un código simbólico en el cerebro o en una máquina. No obstante, es importante destacar que el nivel simbólico tiene una dimensión física pero no es reductible al nivel físico. (VARELA, 1998, p.41). Esto es evidente si se tiene en cuenta que un mismo símbolo puede adoptar infinitas formas físicas. En la inteligencia humana, una expresión simbólica poseedora de una realidad física, se puede corresponder con un patrón global y altamente distribuido de actividad cerebral. El producto más cuestionado del cognitivismo está representado por la Inteligencia Artificial (IA) que puede ser considerada La proyección literal de la hipótesis cognitivista (VARELA, 1998, p. 46). Ya en 1958, Simon y Newell sostenían: Ya tenemos los dos elementos de una teoría para la resolución heurística (en oposición a la algorítmica) de problemas y podemos utilizar esta teoría para comprender procesos heurísticos humanos como para simular esos procesos en computadoras digitales. La intuición, el razonamiento y el aprendizaje ya no son posesiones exclusivas de los seres humanos: ya es posible programar cualquier computadora grande de alta velocidad para que también exhiba estas propiedades (DREYFUS, 1994, p.348). 1 El tema de la intencionalidad tiene un antecedente importante en Franz Brentano (1838-1917). Este filósofo alemán, que ha tenido influencia en la fenomenología actual, desarrolló teorías que conceden una relevancia notable a la intencionalidad. Para Brentano, los fenómenos psíquicos materiales eran experiencias y eran siempre representativos, es decir, que siempre se relacionaban con algo, siempre estaban en relación con un objeto. Según sus palabras, tienen una “objetividad inmanente” y el objeto tiene en todos ellos una “existencia intencional”. Esto debía entenderse no sólo para el deseo o la inteligencia, sino también para la sensibilidad: un color, por ejemplo, no es un hecho psíquico sino un hecho material, un objeto físico, lo psíquico es percibir, es decir un acto mental que apunta a un objeto en este caso, de color.
Estas afirmaciones es posible ubicarlas en el marco de lo que se puede designar como IA fuerte, es decir, aquella posición teórica que considera a la computadora no sólo una herramienta que permite, entre otras cosas, acercarse al complejo funcionamiento de la mente, sino que la computadora adecuadamente programada es una mente, vale decir, una máquina pensante que posee ciertos estados cognoscitivos. Las vicisitudes: Uno de los científicos que ha rebatido con más énfasis la postura cognitivista, sobre todo en lo que se ha dado en llamar la inteligencia artificial “fuerte”, ha sido John SEARLE (1994). Para rebatir aquella postura científica, Searle se pregunta qué pasaría si su mente funcionara de acuerdo a las teorías que sustenta la posición de la IA fuerte y esto lo hace a través del siguiente razonamiento: Supongamos que estoy encerrado en una habitación y se me proporciona un fajo grande de textos escritos en chino. Supongamos además (como es de hecho el caso) que no sé chino ni escrito ni hablado, y que ni siquiera tengo la certeza de poder reconocer la escritura china como tal, distinguiéndola, por ejemplo, de la escritura japonesa o de una serie de garabatos sin significado alguno. Para mí, la escritura china sólo es una serie de garabatos sin sentido. Ahora bien, supongamos que después de recibir este fajo de textos en chino, se me proporciona otro que contiene una serie de reglas para relacionar el segundo fajo con el primero. Las reglas están in inglés y las entiendo tan bien como cualquier otro hablante de esta lengua. Me permiten establecer una correlación entre un conjunto de símbolos formales y otro conjunto de símbolos formales. Con “formal” sólo quiero decir aquí que puedo identificar los símbolos completamente por sus formas. Supongamos también ahora que recibo un tercer fajo de símbolos chinos junto con algunas instrucciones, en inglés, que me permiten correlacionar elementos de este tercer fajo con los dos primeros, y que estas reglas me instruyen acerca de cómo responder con ciertos símbolos chinos de cierta forma a ciertos tipos de forma que me fueron proporcionadas en el tercer fajo. Sin yo saberlo, las personas que me dieron todos estos símbolos llaman “manuscrito” al primer fajo, “relato” al segundo y “preguntas” al tercero. Además, llaman “respuestas a las preguntas” a los símbolos que doy en respuesta al tercer fajo, y al conjunto de reglas en inglés que me proporcionaron lo llaman “el programa”. Ahora bien, sólo para complicar la historia un poco, imaginemos que estas personas también me proporcionan relatos en inglés, que yo comprendo, y que luego me hacen preguntas en inglés sobre esos relatos y yo les respondo también en inglés. Supongamos también que después de un rato logro seguir tan bien las instrucciones para descrifrar los símbolos chinos y los programadores logran escribir tan bien los programas desde un punto de vista externo –esto es, fuera de la habitación donde estoy encerrado- que mis respuestas a las preguntas no pueden distinguirse en absoluto de las que proporcionaría un hablante del chino. Nadie que sólo observara mis respuestas podría afirmar que no hablo ni una palabra de chino. Supongamos también que mis respuestas a las preguntas en inglés son (qué duda cabe) indistinguibles de las de otros hablantes del inglés por la sencilla razón de que yo soy un hablante de esta lengua. Desde el punto de vista externo –el de alguien que lea mis respuestas- las contestaciones a las preguntas en chino y a las preguntas en inglés son igualmente buenas. Empero, en el caso del chino, a diferencia del inglés, formulo mis respuestas mediante el manejo de símbolos formales no interpretados. En lo que respecta al chino, me comporto simplemente como una computadora; realizo operaciones de cómputo con base en elementos especificados formalmente. En cuanto al chino, no soy más que un ejemplo concreto del programa de una computadora. (SEARLE, 1994, p.84-85) Las conclusiones de este sencillo ejemplo se pueden resumir del siguiente modo: El no hablante de chino, no entiende una palabra de esa lengua, aún cuando sus respuestas sean absolutamente correctas y no difieran de las de un sujeto que sí dominara
este idioma; el hecho de que las respuestas dadas en inglés sean tan perfectas como las del chino, puede implicar que las respuestas en inglés constituyan una manipulación simbólica similar, aunque más formal, que la de las respuestas chinas, no obstante, el programa no aporta nada para la comprensión del chino. En consecuencia, … mientras el programa se defina en términos de operaciones de cómputo sobre puros elementos definidos formalmente, lo que el ejemplo sugiere es que éstos por sí solos no guardan ninguna relación interesante con la comprensión… (SEARLE, 1994, p.86). Por último, Searle intenta ofrecer una explicación sobre las causas por las que se atribuyen capacidad de comprensión, además de otros atributos cognitivos, a diferentes artefactos: La razón por la que hacemos estas atribuciones es bastante interesante y tiene que ver con el hecho de que en los artefactos extendemos nuestra propia intencionalidad. Nuestras herramientas son extensiones de nuestros propósitos y, por consiguiente, nos parece natural atribuirle intencionalidad metafóricamente (SEARLE, 1994, p.87). No obstante, señala: Sin embargo, a mi juicio estos ejemplos no tienen ninguna importancia filosófica (SEARLE, 1994, p.87). La posición de Searle no ofrece dudas y se asienta fundamentalmente en la falta de capacidad semántica de la máquina. …en esto consiste mi rechazo a la ecuación: mente-cerebro = programa-hardware. Instanciar el programa correcto nunca es suficiente para tener una mente […]. Y la razón es obvia. Las mentes tienen contenidos mentales. Tienen contenidos semánticos. Así como tienden un nivel sintáctico de descripción. (SEARLE, 1995, p.420) En la concepción cognitivista, los símbolos tienen una realidad física que condiciona la computación, ya que existe la certeza de que una computadora digital opera sólo sobre la forma física de los símbolos que computa, pero no tiene acceso a su valor semántico, por lo tanto, sus operaciones están limitadas semánticamente, por lo que los programadores la han codificado como diferencia semántica relevante para su programa y la han expresado en la sintaxis del lenguaje simbólico de ellos mismos. En otras palabras, ante el irreductible nivel simbólico que la hipótesis cognitiva utiliza para explicar la cognición, los críticos acertadamente señalan que los símbolos son ítems semánticos, característica que escapa a la capacidad de la IA. Ante esto, los cognitivistas postulan un tercer nivel semántico o representacional. Esto último constituye una de las principales innovaciones de las ciencias cognitivas: las relaciones entre sintaxis y semántica. Al respecto, los cognitivistas sostienen que, en un programa de computación, la sintáxis del código simbólico refleja su semántica. Esta postura presenta varios flancos débiles: en el caso del lenguaje humano, es un absurdo decir que todas las distinciones semánticas relevantes para una explicación de la conducta estén reflejados sintácticamente. Esta discusión nos remite al problema del lenguaje natural. Es obvio que para darse cuenta de cuál es la información implícita entre las alternativas que el lenguaje expresa, la máquina debe simular la comprensión del lenguaje humano. De allí la importancia que las investigaciones sobre el lenguaje natural alcanzaron en su momento –continuándolo- y las controversias que a su respecto se suscitaron. Noam Chomsky, que participó activamente en este debate, sostiene que existe una modalidad innata para el lenguaje natural que incluye aspectos semánticos; y que el mismo está determinado por la evolución. Esto presupone la existencia de un gran número de habilidades conceptuales innatas por las cuales los sujetos tienden a formar ciertos conceptos y no otros. Por su parte, Jerry Fodor va más lejos al sostener que… existe un lenguaje del pensamiento innato, con primitivas (palabras elementales) adecuadas para la expresión de todos los conceptos que los humanos son capaces de aprender a expresar en un lenguaje natural (PUTMAN, 1993, p.316). Si se tiene en cuenta la concepción más tradicional, uqe sostiene que la lengua madre no se aprende, sino que es el resultado del desarrollo y la maduración de una capacidad innata en un
ambiente dado, se ven notablemente reducidas las esperanzas sobre la probabilidad de que la computadora pueda llegar al dominio del lenguaje natural. Esta es la razón por la cual Chomsky, aunque comparte el modelo computacional de la mente, es pesimista a propósito de los proyectos del procesamiento computacional del lenguaje natural. Otra dificultad está referida al tema del pensamiento lógico-inductivo, que en cierta forma comparte la concepción pesimista sobre el lenguaje natural. Lo cierto es que hasta ahora no se ha podido determinar cuál es la forma ni la magnitud del razonamiento que se ha dado en llamar lógica inductiva, entendiendo por tal …cualquier métodode inferencia válido que no sea deductivo (PUTMAN, 1993, p.310). Pero el problema de la inducción no es el único problema que surge cuando se intenta simular la inteligencia humana. La capacidad cognitiva exige ciertas habilidades que no solamente tienen que ver con los estímulos físicos. Lo que hace similares a los cuchillos, por ejemplo, no es que se parezcan (pues no se parecen), sino que todos están fabricados para cortar o perforar… De este modo, cualquier sistema que puede reconocer los cuchillos como cosas relevantemente similares debe ser capaz de atribuir propósito a los agentes. Los humanos no tienen dificultades para hacerlo (PUTMAN, 1993, p.312). Es decir, que el sujeto humano posee una habilidad innata que lo ayuda a saber cuál, entre las infinitas posibilidades inductivas, se puede considerar acertada. Para lograr que un programa computacional simulara con éxito esta capacidad inductiva, la teoría pesimista sostiene que se requeriría un vasto número de subrutinas, tan extenso, que serían necesarias generaciones de programadores e investigadores para llevar a cabo una pequeña parte de ese sistema. La concepción optimista, por su parte, sostiene que hay una heurística del aprendizaje, sin que ello implique un número inmanejable de conocimientos de base; y que esta heurística serviría para que la máquina domine el lenguaje natural, así como la posibilidad de hacer inferencias inductivas.
Informática y educación Hace muchos años, cuando todavía no se vislumbraban los increíbles logros informáticos que hoy son una realidad cotidiana, una profesora de pedagogía contó en clase la siguiente fábula: “Cansado de no obtener demasiada atención por parte de sus alumnos y con el propósito de aliviar su tarea docente, un profesor comenzó a grabar sus clases y a enviar la grabadora para que el conserje lo pusiera en el aula y los alumnos pudieran oír su exposición. Al cabo de una semana, se dio una vuelta para ver cómo funcionaba su invento y comprobó que en los pupitres de los alumnos sólo había grabadoras que reproducían su misma grabación”. En lo que se ha comentado sobre las limitaciones que ofrece la Inteligencia Artificial, parecería que, hasta el momento, la informática no puede reemplazar al hombre en la tarea docente. Si se piensa esto desde la constitución de la subjetividad y desde lo que sostienen muchas teorías psicológicas, el sujeto sólo puede constituirse como tal en relación a un semejante y la educación formal cumple una parte importante en la construcción y constitución de esa subjetividad. Por estas razones, el siguiente párrafo de SCHLEMENSON (1997) puede constituir el broche adecuado para estas reflexiones: Si todos fueran iguales, si en la escuela no existieran “los otros”, parecidos pero distintos, la educación podría quedar en manos de las computadoras que, por suerte, son sólo instrumentos de información que no logran generar el atractivo y el dinamismo que produce el semejante, el compañero cuando se encuentra con un igual en el interior del espacio escolar compartido (SCHLEMENSON, 1997, p.75)
BIBLIOGRAFÍA: FALCON, Mabel I. (1999). El cognitivismo y sus vicisitudes. Revista Ideaçao. Feira de Santana, Brasil (número 4) p.111-124 Recuperada el 27 de diciembre de 2008 en: http://74.125.47.132/search? q=cache:Al_WSzvnsVQJ:www.uefs.br/nef/akauth4.pdf+cognitivismo+y+sus+vicisitudes+mabel&hl =es&ct=clnk&cd=1&gl=mx