lunes, diciembre 31, 2007


Gregory Bateson y la Revolución Cognitiva (I Parte).



Gregory Bateson (1904-1980).

El desarrollo teórico y epistemológico que se presentó en el ámbito de la antropología hacia mediados del siglo pasado, donde destacan figuras como Gregory Bateson, Margaret Mead y Clifford Geertz, también puede considerarse como un importante antecedente de esta nueva revolución cognitiva. Como se señaló anteriormente, Gregory Bateson participó activamente en las Conferencias Macy, donde se discutieron y desarrollaron las ideas que llevaron a la formulación de la cibernética, hito del pensamiento occidental que plasmó significativamente el trabajo y las reflexiones de este biólogo, etnólogo y epistemólogo inglés, quien en una conferencia dada en 1966, señaló que a su juicio, “la cibernética es el mayor mordisco al fruto del Árbol del Conocimiento que la humanidad ha dado en los últimos 2000 años.”[1] Para Bateson, el desarrollo de la teoría de la información, de la cibernética y de la teoría de sistemas, permite pensar de una manera totalmente nueva acerca de la mente y de los fenómenos relacionados con ella, acción que es necesaria al considerar el error en el que incurrieron los enfoques teóricos desde los cuales se abordaron antes estas materias.

Desde una perspectiva evolutiva, es fundamental, señala Bateson, advertir que la teoría de la evolución planteada por Darwin, presentaba un grave error en lo que respecta a su definición de la unidad de superviviencia bajo la acción de la selección natural, pues se focalizaba en el individuo, en su familia o en una especie en particular, sin considerar las características y el aporte del entorno o nicho ecológico, que resultan fundamentales para comprender la sobreviviencia de una especie.

“Ahora bien, sostengo que los cien últimos años han demostrado empíricamente que si un organismo o agregado de organismos se pone a trabajar con el interés centrado en la propia supervivencia y piensa que esa es la manera de seleccionar sus movimientos adaptativos, su ‘progreso’ desembocará en la destrucción del ambiente. Si el organismo termina por destruir su ambiente, de hecho se ha destruido a sí mismo. (. . .) La unidad de supervivencia no es el organismo en desarrollo, o la línea familiar, o la sociedad.

(. . .) La flexibilidad del ambiente tiene que ser incluida junto con la flexibilidad del organismo, porque como ya dije antes, el organismo que destruye el ambiente se destruye a sí mismo. La unidad de supervivencia debe ser el flexible organismo-en-su-ambiente.”[2]

Las aplicaciones que Bateson hace de la cibernética y de la teoría de sistemas, no sólo permiten conectar sus ideas con las desarrolladas por Dewey, los teóricos de la gestalt y los enfoques cognitivos europeos, en cuanto a considerar la relevancia que tiene la interacción del sujeto con su entorno, sino que también por el hecho de considerar que en dicha interacción, el sujeto tiene un rol activo, que lo lleva a construir una particular realidad al procesar las diferencias que perturban a sus órganos sensoriales, conceptualización que explícitamente cuestiona los enfoques mecanicistas del procesamiento de la información.

“La distinción que suele trazarse entre percepción y acción aferente y deferente, entrada y salida, no es válida para los organismos superiores en situaciones complejas. Por otra parte, casi cualquier ítem de acción puede ser informado al sistema nervioso central, sea por un sentido externo o por un mecanismo endoceptivo, y en este caso el informe sobre este ítem se convierte en una entrada. Y por otra parte, en los organismos superiores la percepción de ninguna manera es un proceso de mera receptividad pasiva, sino que, en parte al menos, está determinada por un control eferente que procede de los centros superiores. La percepción, notoriamente, puede ser modificada por la experiencia.”[3]


[1] Bateson, Gregory. De Versalles a la cibernética. Conferencia pronunciada el 21 de Abril de 1966 en el Simposio de los Dos Mundos en el Sacramento State Collage. En Bateson, Gregory. Steps to an Ecology of Mind. Chandler Publishing Company. Nueva York. 1972. Edición en español, Pasos hacia una Ecología de la Mente. Ed. Planeta. Buenos Aires. 1985. p. 507.

[2] Bateson, Gregory. Efectos del propósito consciente sobre la adaptación humana. Conferencia Wenner-Gren. Austria. 1968. En Bateson, G. 1972. op. cit. pp. 481-482.

[3] Bateson, Gregory. Las categorías lógicas del aprendizaje y la comunicación. 1964. En Bateson, G. 1972. op. cit. p. 322.

jueves, noviembre 29, 2007


La Segunda Revolución Cognitiva: El resurgimiento del significado.


Jerome Bruner (Psicólogo Fundador del Centro de Estudios Cognitivos de Harvard)


El positivismo planteado por Comte en el siglo XIX, la tradición filosófica empirista y el afán de convertir a la naciente disciplina en una ciencia, se encarnaron en la figura del psicólogo estadounidense John Watson, quien en 1913, al publicar un artículo titulado “Psychology as the behaviorist views it”, funda la psicología conductista, según la cual había que despojar a la psicología de todos los conceptos de índole mental, como la intencionalidad, los estados emocionales y las vivencias o experiencias personales. La psicología se dedicaría a estudiar sólo la conducta observable y los estímulos reales y objetivos que la provocaban. De este modo, para explicar la conducta, la psicología no debía hacer referencia a ningún ser humano en particular, llegando a ser incluso irrelevante que la investigación se desarrollara con seres humanos o con animales. Según Watson, “la psicología desde la perspectiva conductista es una rama experimental de la ciencia natural puramente objetiva. Su objetivo teórico es la predicción y el control de la conducta. (. . .) El conductista, (. . .) reconoce que no hay una línea divisoria entre el hombre y las bestias.”[1]

En la misma época en que Watson aspiraba a hacer de la psicología una ciencia siguiendo el modelo lineal-causal de la física clásica, en Europa, el lingüista suizo, Ferdinand de Saussure, fundador de la lingüística estructural, intentaba convertir el lenguaje en el objeto específico de una ciencia, con su ya clásica distinción entre la lengua y el habla. Así, la lingüística, se dedicaría exclusivamente al estudio de la lengua, poniendo entre paréntesis, el problema de la relación del lenguaje con la realidad.[2]

Esta concepción de la lingüística estructural, cambia profundamente la forma tradicional de abordar estas materias, pues anteriormente, la discusión filosófica se hallaba en la relación entre signum y res, es decir, en la relación de significado. Esta nueva ciencia, al excluir de la definición de signo cualquier referencia a un dominio extralingüístico, conlleva una crítica radical, a juicio de Ricoeur, tanto a la noción de sujeto como a la de intersubjetividad.

“En la lengua, podría decirse, nadie habla. La noción de ‘sujeto’, al ser desplazada al ámbito del habla, deja de ser un problema lingüístico para recaer en el terreno de la psicología. La despsicologización radical de la teoría del signo en el estructuralismo une, en este punto, sus efectos a las demás críticas, de origen nietzscheano o freudiano, del sujeto reflexivo, y entra a formar parte del gran movimiento que se ha llamado a veces la crisis e incluso la muerte del sujeto.”[3]

La desaparición del sujeto, en el ámbito lingüístico, implica también la desaparición de los otros sujetos, de todos los otros, hacia los que se dirige el habla. Si no hay un sujeto que hable, ni hay un otro que responda, tampoco hay una relación o interacción entre sujetos que permita la aparición del diálogo. Así, la lingüística estructural excluye de sus preocupaciones, a modo de epojé, el tema de la comunicación interpersonal y el uso social del lenguaje, en su intento de hacer del lenguaje un objeto de estudio científico. Con este mismo propósito, la psicología estadounidense, durante más de cuarenta años, eliminó al sujeto, al individuo, de su ámbito de competencia, situación que también se presentó en otras disciplinas, como la antropología.

En medio del escenario de hegemonía computacional, que se desarrolló fundamentalmente en los Estados Unidos con la revolución cognitiva, volvió a surgir una fuerte corriente antimentalista, que pretendía erradicar de la ciencia cognitiva los llamados “estados intencionales”, como creer, desear o comprender; y con ellos, la noción de sujeto o agente, dado que estos conceptos suponen la existencia de estados intencionales que orientan la acción. De esta manera, para Pozo, el enfoque computacional “a pesar de su apariencia revolucionaria, es profundamente continuista con la tradición del conductismo.”[4]

Así como para Ricoeur, la lingüística estructural, en su afán de cientificidad, excluye precisamente aquello que es esencial del lenguaje, el acto de hablar, para Jerome Bruner, la psicología, con el mismo propósito, dejó de lado una característica esencial del ser humano, el acto de buscar un significado, un sentido, a la experiencia vivida. La ciencia cognitiva, en sus comienzos, no sólo obvió el conocimiento que se había gestado en otros ámbitos, como la física y la biología, sino también, los desarrollos iniciales y los planteamientos teóricos que habían formulado los principales fundadores de las disciplinas que la constituían. Para la ciencia cognitiva, en especial para la psicología estadounidense, la historia había dejado de ser significativa.

“No cabe ninguna duda de que la ciencia cognitiva ha contribuido a nuestra comprensión de cómo se hace circular la información y cómo se procesa. Como tampoco le puede caber duda alguna a nadie que se lo piense detenidamente de que en su mayor parte ha dejado sin explicar precisamente los problemas fundamentales que inspiraron originalmente la revolución cognitiva, e incluso ha llegado a oscurecerlos un poco.”[5]

A mediados del siglo XX, un grupo de investigadores de diversas disciplinas, consideraron que no era posible pagar un precio tan alto en aras de este anhelo de crear una ciencia objetiva, ya sea en el ámbito de la lingüística, de la antropología o en el de la psicología. ¿De qué servía una ciencia del lenguaje que no considerara la práctica cotidiana, el uso humano, del lenguaje?, ¿para qué una psicología que no diera cuenta de la experiencia humana en el diario vivir?, ¿era viable una lingüística y una psicología sin sujeto, sin agente?. El mismo Jerome Bruner, quien fue un importante actor en la revolución cognitiva de 1956, señala, que recuperar “la mente” en las ciencias humanas, y con ella el estudio del significado en la experiencia cotidiana, era el objetivo que pretendían los gestores de la revolución cognitiva, hacia mediados del siglo XX.

“Creíamos que se trataba de un decidido esfuerzo por instaurar el significado como el concepto fundamental de la psicología; no los estímulos y las respuestas, ni la conducta abiertamente observable, ni los impulsos biológicos y su transformación, sino el significado. (. . .) Su meta era descubrir y describir formalmente los significados que los seres humanos creaban a partir de sus encuentros con el mundo, para luego proponer hipótesis acerca de los procesos de construcción de significado en que se basaban. Se centraba en las actividades simbólicas empleadas por los seres humanos para construir y dar sentido no sólo al mundo, sino también a ellos mismos”[6]

De acuerdo a diversos autores[7], a principios de los años ochenta se fue gestando una nueva edición de la revolución cognitiva, que vuelve a considerar al sujeto como agente de sus procesos cognitivos, rescatando el carácter constructivo y dinámico de la experiencia y de los significados. Entre los antecedentes de esta segunda revolución, se hallan las limitaciones que manifestaba la arquitectura serial o clásica y la reconsideración que se fue haciendo de los planteamientos formulados en la primera mitad del siglo XX por la filosofía y la psicología europea. Esta recuperación histórica, que incluye a los teóricos de la gestalt y a personajes como Dewey, Piaget, Vygotsky, Gadamer, Merleau-Ponty y Bartlett, entre otros, resultó particularmente difícil, dadas las grandes diferencias que estas ideas, y los supuestos que subyacen a ellas, tienen con los que caracterizaron al enfoque dominante o hegemónico en la ciencia cognitiva.[8]

En el caso de la psicología cognitiva europea, que podría caracterizarse como una psicología sistémica u organicista, ésta considera que su unidad de análisis son las totalidades, la relación del individuo con su entorno, no pudiéndose reducir la unidad de estudio al análisis de los elementos constituyentes. Los planteamientos de la psicología de la Gestalt, de Dewey, Bartlett, Piaget y Vygotsky, adoptan un enfoque constructivista, según el cual, la estructura cognitiva del sujeto, que es de carácter dinámico, juega un rol fundamental en la interpretación que éste hace de la realidad y en los significados que va gradualmente construyendo.

“Existe por tanto un rechazo explícito del principio de correspondencia o isomorfismo de las representaciones con la realidad. Situadas en una tradición racionalista, estas teorías no creen que el conocimiento sea meramente reproductivo, sino que el sujeto modifica la realidad al conocerla. Esta idea de un sujeto ‘activo’ es central a estas teorías.”[9]

Estos enfoques sistémicos-organicistas, coherentes con los planteamientos de la cibernética, rechazan la concepción estática de los enfoques mecanicistas clásicos, al considerar que los organismos son entidades dinámicas, que están en constante cambio como resultado de interactuar continuamente con su entorno. Así, los cambios estructurales que presenta un organismo a lo largo del tiempo, que pueden concebirse como aprendizajes, son procesos naturales y característicos de éste, que no se pueden obviar y de los cuales es necesario dar cuenta al intentar explicar su conducta.


[1] Watson, John. Psychology as the behaviorist views it. Psychological Review, 20, 158-177. 1913. En http://psychclassics.yorku.ca/Watson/views.htm (10/01/07)

[2] Ricoeur, Paul. Philosophie et langage. Revue philosophique de la France et de l’Étranger, vol. CLXVIII, Nº 4, 1978. En Ricoeur, Paul. Historia y Narratividad. Ed. Paidós, Barcelona. 1999.

[3] Ibíd. p. 44.

[4] Pozo, Juan. Teorías Cognitivas del Aprendizaje. Ediciones Morata, Madrid. 1989. p. 56.

[5] Bruner, Jerome. Acts of Meaning. Cambridge: Harvard University Press. 1990. Edición en español: Actos de Significado: Más allá de la Revolución Cognitiva. Editorial Alianza, Madrid. 1991. p. 27.

[6] Ibíd. p. 20.

[7] Bruner, Jerome. Acts of Meaning. Cambridge: Harvard University Press. 1990. Edición en español: Actos de Significado: Más allá de la Revolución Cognitiva. Editorial Alianza, Madrid. 1991. Gardner, Howard. The Mind's New Science: A history of the cognitive revolution. New York: Basic Books. 1985. Edición en español, La Nueva Ciencia de la Mente. Ed. Paidós, Barcelona. 1987. Harré, Rom. Gillett, Grant. The Discursive Mind. Ed. Sage. California. 1994. Martínez, Miguel. Comportamiento Humano: Nuevos Métodos de Investigación. Ed. Trillas, México. 1989. Pozo, Juan. Teorías Cognitivas del Aprendizaje. Ediciones Morata, Madrid. 1989. Varela, F., Thompson, E., Rosch, E. The Embodied Mind: Cognitive Science and Human Experience. MIT Press, Cambridge, Mass. 1991. Edición en español, De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona. 1997.

[8] Pozo, Juan. op. cit.

[9] Ibíd. p. 57.

miércoles, octubre 24, 2007











La legitimación social de la violencia y la deslegitimación social del amor.

El término violencia alude a la acción de violar, palabra que viene del latín violare, la que a su vez deriva del sustantivo latino vis, que significa vigor o fuerza. Desde temprano el término violare tuvo el sentido de hacer daño o causar estrago a través de la fuerza. El Diccionario de la RAE, señala que una de las acepciones de violar alude a infringir una ley o quebrantar un tratado, una promesa o un precepto. A esta idea nos referimos cuando señalamos, por ejemplo, que una persona “violó la ley”.

Quisiera a partir de esta definición, invitarlos a reflexionar acerca de la violencia cotidiana de la cual todos somos testigos, para lo cual me parece necesario considerar qué es lo que se viola, cuáles son los acuerdos, promesas o supuestos que son quebrantados en nuestro vivir cotidiano.

Los homo sapiens, que es la especie animal a la cual pertenecemos, evolucionamos de una manera tal, que la interacción con otros organismos de nuestra especie se constituyó en una condición necesaria para nuestra sobrevivencia. A diferencia de otros animales, en nuestros primeros años de vida dependemos absolutamente de otros seres humanos para sobrevivir, coordinar nuestras acciones con las de otros seres humanos de manera tal de poder convivir con ellos, no es para nosotros una opción, sino que es una necesidad.

Así, un contrato social básico, implícito y necesario para cualquier ser humano consiste en “vivir y dejar vivir”, el con-vivir o vivir con otros es una necesidad biológica tan fundamental como respirar o alimentarnos, al menos, en una etapa de la vida en términos individuales y siempre necesaria desde la perspectiva de la especie. La violencia, cualquiera sea la forma que adopte, viola, traiciona, quebranta este supuesto, este contrato social básico. La convivencia social, el dejar vivir a otros seres humanos junto a nosotros, constituye un consenso fundamental en el que se basa nuestra existencia cotidiana, por lo que su violación genera diversos tipos de consecuencia en las personas que la experimentan.

Para el biólogo chileno Humberto Maturana, el desarrollo de la vida humana sólo es posible en la medida que nos aceptamos unos a otros como legítimos otros, en la medida que respetamos y validamos nuestras diferencias, nuestras particulares experiencias e historias de vida. Para esto, necesitamos que nuestro organismo se encuentre en un estado emocional que nos lleve a aceptar a los otros seres humanos como iguales, con el mismo derecho a existir que nosotros tenemos. Para Maturana, la emoción que nos permite aceptar al otro como legítimo otro en convivencia con nosotros es el amor. Desde esta perspectiva, el amor no se refiere exclusivamente al deseo de acariciar y regalonear a otro u otra, sino que alude a un estado dinámico del organismo que hace posible reconocer en otro ser humano a un ser que tiene derecho a existir, en condiciones similares a las nuestras.

La convivencia con otros seres humanos nos transforma, la interacción con el entorno modifica nuestro organismo, de manera permanente o transitoria, y con ello, la forma particular que tenemos de relacionarnos. Toda interacción, por trivial que parezca, nos va moldeando, nos va convirtiendo en un tipo u otro de persona. Cada uno de nosotros somos lo que somos como resultado de nuestra historia de interacciones, por haber nacido en una familia determinada, en un barrio determinado, por haber asistido a una escuela en particular, por haber tenido los profesores y compañeros que tuvimos, por haber pololeado con ciertas personas y no con otras, en fin, por haber tenido las experiencias que tuvimos. Esas experiencias, esas personas, esos lugares, nos enseñaron a vivir de una determinada manera, aprendimos a hablar de cierto modo, a pensar de una cierta manera, a reaccionar de ciertos modos característicos. Lo interesante, es que aprendimos una particular manera de vivir de la cual no somos del todo conscientes. Más aún, tendemos a ser ciegos al singular modo que tenemos de relacionarnos con los demás y con nuestro entorno. La forma de vida que hemos adoptado, la cultura en medio de la cual nos movemos, no la advertimos en nuestro vivir cotidiano, pues constituye para nosotros la forma natural que tenemos de vivir y de movernos por el mundo. No nos sorprende vestirnos como nos vestimos, hablar el idioma que hablamos, comer lo que comemos, seguir ciertas normas sociales para relacionarnos con los demás, en fin, para nosotros así es el mundo y así son las cosas.

Los seres humanos podemos aprender a vivir de muchas maneras posibles y aprendemos a vivir según como vivimos, nos relacionamos con los demás de acuerdo a cómo se han relacionado con nosotros, hacemos lo que hemos visto hacer a otros y lo que a nosotros nos han hecho, de una u otra forma. Eso es lo legítimo, eso es lo adecuado, así es como se vive y se sobrevive en este mundo. Si me golpean, aprendo que los golpes son una forma legítima de relacionarse, si me tratan a garabatos aprendo a tratar así a los demás e incluso me podría sorprender si escucho a personas que no los utilizan en su interacción. Podría aprender a cultivar relaciones que otros denominan violentas y que a mí me parecen de lo más adecuadas y correctas. Podría aprender a considerar legítimo y adecuado abusar de las demás personas, quitarles sus pertenencias, golpearlas si me molestan, explotarlas para mi beneficio personal o someterlas a duras jornadas de trabajo en condiciones que ponen en riesgo su salud física y mental.

Me parece que como sociedad hemos aprendido a legitimar socialmente diversas manifestaciones de violencia, al punto tal que ya hemos dejado de advertirlas como tales y las hemos pasado a considerar como la forma adecuada o normal de actuar y vivir. La corrupción, tan de moda los últimos días, es una violación a los ciudadanos que pagamos impuestos y que con nuestro trabajo ayudamos a financiar todo el aparato estatal. La enorme desigualdad en la distribución del ingreso es una práctica violenta, en la medida que unos pocos ganan mucho a costa de muchos que ganan muy poco, práctica que no sólo se considera legítima, porque es legal, sino que además nadie se hace responsable de ella, es el sistema, no las personas. La violencia en la que incurre el sistema educacional chileno al no brindar una educación de calidad a los alumnos, la violencia en la que incurren los profesores cuando consideran que su trabajo es dictar materias, la violencia que se da en las diversas prácticas de negligencia profesional, la violación de los derechos de los menores de compartir con sus padres, la violación del derecho de vivir en un ambiente no contaminado, la violación del derecho a descansar, la violación del derecho de los niños a ser niños, la violación del derecho a disentir sin ser calificado de conflictivo o revolucionario. E incluso, nuestro lema patrio legitima la violencia, “por la razón o la fuerza”.

Me parece al mismo tiempo, que nuestra cultura ha deslegitimado el amor, como la emoción en la que se funda nuestra convivencia habitual. Hemos hecho del amor, como señala Maturana, algo muy excepcional, algo muy sofisticado, extraño y raro, que casi no es accesible para el hombre o mujer común y corriente. Aceptar al otro como legítimo otro, respetarlo, darle el espacio para que exista y se mueva, preocuparnos de su bienestar, se han convertido en el discurso cotidiano en prácticas poco frecuentes que ya no cabe esperar. Este mundo es el mundo de los vivos que saben luchar, competir e imponerse a los demás, no el de los ingenuos y tontos que tratan de cooperar y ser amables.

Creo que es fundamental que nos atrevamos a mirar nuestro actuar cotidiano, a reflexionar sobre nuestras prácticas, sobre nuestro hacer diario. Es necesario dejar las certezas, las certidumbres, las anteojeras, los fanatismos de todo tipo. Me parece que tenemos que aprender a cultivar la valentía que nos permita arriesgarnos a amar, a establecer relaciones íntimas con los demás, arriesgarnos a sufrir eventualmente, a mostrarnos, a dejar que nos vean, que nos conozcan. Tenemos que empezar a entender el amor, el respeto, la aceptación de la diversidad, como algo trivial, cotidiano y necesario. Necesitamos de espacios y relaciones amorosas para sobrevivir y estos espacios y relaciones no caen del cielo ni brotan espontáneamente, es necesario cultivarlos. La legitimación social se basa en lo que cada uno de nosotros legitima a diario con su actuar, de cada uno depende lo que queremos o no seguir legitimando. Sería una buena práctica, comenzar cambiando nuestro lema nacional, de manera de sentirnos orgullosos y no avergonzados del mismo.

domingo, octubre 14, 2007

La inteligencia como concepto relacional.


La inteligencia es, claramente, un concepto que nos remite a un mundo complejo. Tradicionalmente, nuestra cultura occidental ha intentado transitar por un mundo simplificado, un mundo analizado, un mundo predecible, sin importar que en este esfuerzo este mundo fuera brutalmente distorsionado. Encerrarnos en la idea del control racional fue el resultado de dicho intento, así como también el abandonar nuestro cuerpo y con él la experiencia del mundo.

Jean Piaget, en la primera mitad del siglo XX, nos invitaba a entender la cognición y la inteligencia como un proceso que se da en la interacción del organismo con su medio, enfatizando la importancia de los procesos y operaciones sensorio-motrices. Parece ser que durante mucho tiempo, sólo prestamos atención a una parte de lo que Piaget nos indicaba, sin ahondar mucho en sus consecuencias. Es probable, que no hayamos estado preparados, en ese momento, para ver y escuchar lo que podían significar sus planteamientos.

Un fenómeno similar se dio con la propuesta de quienes sustentaron el enfoque conexionista y la cibernética. Aparentemente, tampoco estuvimos a la altura de esas ideas, con lo cual la ciencia cognitiva tuvo un retraso, si se puede así llamar, de más de una década. En este caso, la mayoría no pudo ver lo que esas ideas significaban. La evolución del pensamiento seguía su curso, faltaban algunos ciclos recursivos para poder ver y escuchar con mayor claridad.

Me parece que lo mismo está pasando con las emociones, estamos reparando nuevamente en ellas y advirtiendo la influencia que ejercen en lo que tradicionalmente llamamos nuestra inteligencia.

El desarrollo que hasta ahora ha alcanzado la ciencia cognitiva, permite plantear que la inteligencia no es una cualidad o propiedad de un organismo específico, sino más bien el nombre con el que distinguimos un tipo de interacción particular entre ese organismo y su entorno, la cual se caracteriza por permitir el acoplamiento estructural necesario entre estos dos sistemas para que dicho organismo pueda seguir existiendo en ese dominio o ámbito particular. Creo que la mayoría de las definiciones o conceptualizaciones acerca de la inteligencia son consistentes con esta forma de entenderla, estando las diferencias fundamentalmente basadas en el énfasis que le dan a un aspecto específico de dicha relación.

Todos formamos parte de diversos sistemas y nuestras acciones pueden o no contribuir al acoplamiento estructural de los mismos. Quizás aún no veamos las consecuencias que esto pueda tener, dado que nuestras conductas pueden constituir pequeñas diferencias que se pueden amplificar mediante los procesos recursivos del vivir. No podemos saber con certeza dónde estaremos en los próximos años, aunque quizás nuestra percepción se afine para permitirnos captar la tendencia que tiene el sistema del cual formamos parte.

Hasta el momento, la inteligencia artificial y la robótica nos están ayudando a pensar acerca del vivir humano y a comprender un poco más lo complejo de nuestra existencia. Como individuos y como especie tenemos importantes desafíos por delante, la manera cómo los enfrentemos será, en mi opinión, la principal forma, quizás la única válida, de evaluar nuestra inteligencia.

Quisiera terminar este comentario con una reflexión de Rodney Brooks:

“Como producto de la evolución, es improbable que hayamos alcanzado un estado por completo óptimo, especialmente en las áreas cognitivas. La evolución construye un batiburrillo de capacidades que resultan adecuadas para el nicho en que la criatura sobrevive. Es por entero posible que con unos cuantos cambios adicionales en las conexiones de nuestros cerebros ‘normales’ lleguemos a descubrir nuevas capacidades. Quizá se trate de destrezas sobre las que no conseguimos ahora razonar, justo como le sucede al paciente de agnosia. Serían capacidades sobre las que nuestra propia reflexión especial, de la que los seres humanos nos sentimos tan orgullosos, no es capaz de razonar sin que hayan tenido lugar esos cambios de conexiones.”[1]


[1] Brooks, Rodney. Flesh and Machines. Pantheon Books. New York. 2002. Edición en español, Cuerpos y Máquinas. Ediciones B. Barcelona. 2003. pp. 228-229.

domingo, septiembre 30, 2007

Construyendo organismos inteligentes: una mirada desde la robótica (II Parte).


Rodney Brooks junto a Cog.


En su intento de crear un organismo inteligente, Rodney Brooks reparó en el hecho de que los insectos, al igual que todos los seres vivos, han evolucionado a lo largo del tiempo. De hecho, si tomamos como referente al ser humano, la interacción entre el sujeto y su entorno se da en una historia de desarrollo, la cual es fundamental para alcanzar un adecuado nivel de éxito en las tareas cognitivas. Esta idea, que puede parecer muy obvia en el ámbito de la psicología del desarrollo, no lo era tanto en el de la inteligencia artificial, por lo que su incorporación a este ámbito ha resultado muy significativa para la robótica.

En el ámbito de la psicología del desarrollo, existen estudios que sugieren que los niños no sólo aprenden sobre el mundo realizando acciones, sino también que el conocimiento así adquirido suele ser específico de la acción. Este hecho, acerca de la especificidad del conocimiento, se ha podido advertir también en los adultos. Estos hallazgos fundamentan, una vez más, la importancia que tiene la interacción entre el organismo y su medio, particularmente, el tipo de acciones que este organismo realiza en su historia de acoplamientos estructurales con su entorno, lo que gatilla en dicho organismo cambios estructurales, algunos de los cuales se mantienen en el tiempo, que denominamos aprendizajes, que a su vez se constituyen en la base sobre la cual ese organismo volverá a acoplarse estructuralmente con su entorno, y así consecutivamente. Este proceso de índole recursiva, que es característico de los sistemas dinámicos, permite que conductas que en un inicio pueden ser muy simples, mediante procesos de retroalimentación positiva y caóticos, se vayan transformando en conductas bastante sofisticadas, con lo cual el sistema, en este caso el organismo, se va haciendo progresivamente más complejo y va presentando un mayor nivel de autonomía y de auto-organización.

Esta capacidad de un organismo de ser agente de sí mismo, es decir, presentar autonomía y capacidad de auto-organización, resultó fundamental para el desarrollo de la inteligencia artificial y la robótica, pues los sistemas computacionales, incluidos los sistemas que operan en base a redes neuronales, tienden a presentar un alto nivel de dependencia de los sujetos o agentes que los programaron, siendo muy escasa o rudimentaria su capacidad de autonomía, dado que las metas u objetivos de sus acciones están previamente definidas.

La auto-organización que presentan los seres vivos, incluidos organismos muy primitivos como los virus o las bacterias, lleva a que éstos adopten ciertas pautas o patrones de conducta organizada que permiten el surgimiento de sistemas más complejos cuyas conductas no son posibles de explicar a partir de los organismos constituyentes. Este fenómeno se conoce como comportamiento emergente, el cual se caracteriza además, por el hecho de que no es posible predecir su aparición. El desarrollo de un organismo vivo, puede considerarse un fenómeno emergente, así como también, la aparición y el desarrollo de un cáncer. En términos más macros, de índole social, se puede advertir, por ejemplo, en la organización que adoptan algunas aves en sus vuelos migratorios o en la organización social que presenta un hormiguero o una colmena de abejas, conductas que muchas veces denominamos inteligentes.

La aplicación de estas ideas en la construcción de robots, queda ejemplificada en el procedimiento adoptado por Brooks.

“Ésta fue la metáfora que elegí para mis robots. Construiría sistemas simples de control para una conducta sencilla. Luego añadiría sistemas adicionales de control para un comportamiento más complejo, dejando todavía en su sitio y operativos los antiguos sistemas de control. Si era necesario, los sistemas más recientes podrían asumir ocasionalmente capacidades anteriores del sistema, y así se agregarían capa tras capa, repitiendo el proceso de la evolución natural de sistemas neurales cada vez más complejos.”[1]

Cuando Allen, fue presentado por Brooks en el II Simposio Internacional de Investigación Robótica, celebrado en Francia a finales de 1985, fue capaz de realizar conductas que hasta ese momento ningún robot había logrado. Curiosamente, muchos desacreditaron su trabajo, dado que ese robot no se basaba en procesos de razonamiento centralmente dirigidos ni en algoritmos clásicos que pudieran ser analizados. Brooks, continuó desarrollando robots, cada vez más sofisticados, lo que permitió, en 1997, contar con un robot autónomo, sin control humano, en la superficie de Marte, como fue el caso del Sojourner.

Los robots que Brooks y su equipo han desarrollado, se basan todos en dos principios fundamentales: situación y encarnación, los cuales define de la siguiente manera:

“Una criatura o robot situado es aquel que se halla inserto en el ambiente y que no opera con descripciones abstractas sino a través de sensores propios que en el aquí y ahora del mundo influyen directamente en su conducta.

Una criatura o robot encarnado es aquel que posee un organismo físico y experimenta el mundo, al menos en parrte, directamente a través de la influencia de éste sobre el cuerpo. Se produce un tipo más especializado de personificación cuando la plenitud de ese ser se halla contenida dentro del mundo.”[2]

En la década de los ’90, Brooks, Cynthia Breazeal, Robert Irie y otros miembros de su equipo, construyeron el primer robot humanoide, llamado Cog, que es capaz de interactuar socialmente con las personas de un modo “más natural”.

A pesar de estos significativos avances, Brooks, advierte:

“La verdad de la cuestión es que carecemos de un sistema de visión informática que sobresalga en la tarea de reconocer que algo es una taza, un peine o la pantalla de un ordenador. Nuestros sistemas de visión informática pueden hacer unas cuantas cosas con gran destreza, pero tras cuarenta años de investigaciones no destacan en tareas que los seres humanos y muchos animales llevan a cabo sin esfuerzo.

(. . . .) Está claro que todavía nos falta algo fundamental en el modo en que se halla organizada la visión en los humanos, aunque casi nadie lo reconocerá.”[3]

A pesar de estas falencias, aparentemente tan básicas, Cog permitió el desarrollo de Kismet, un robot que puede participar en interacciones sociales y que está constituido por diversos subsistemas que no cuentan con un subsistema de control central. Kismet, puede dirigir su mirada hacia aquello que llame su atención, atendiendo a cosas que se mueven, que presentan colores saturados y las que tienen el color de la piel. Es capaz de localizar los ojos de su interlocutor y presentar cambios apropiados en su contacto visual a lo largo de una conversación. Kismet puede buscar y localizar objetos, a pesar que no ha sido programado para ello, es decir, estas conductas emergen de otras conductas más simples. Kismet, también es capaz de percibir voces e identificar indicadores prosódicos que le permiten extraer el mensaje emocional que acompaña al mensaje verbal. Más aún, estos mensajes emocionales que identifica pueden afectar su conducta, es decir, presenta un rudimentario estado emocional que afecta su actividad.

Por supuesto, Kismet presenta diversas y significativas limitaciones:

“Lo que Kismet no puede hacer es entender realmente lo que se le dice. Ni es capaz de manifestar algo significativo. Pero ninguna de estas restricciones parece constituir un gran obstáculo para una buena conversación. Kismet sólo oye que las personas hablan y la prosodia de sus voces. Kismet pronuncia fonemas ingleses, pero no comprende lo que dice ni sabe cómo encadenar los fonemas o sílabas de una manera significativa.”

Ciertamente Cog y Kismet, constituyen importantes avances en el desarrollo de la robótica y nos llevan a replantear algunas conceptualizaciones referentes a la cognición y a la inteligencia. Estos robots humanoides, resultan ser organismos inteligentes en varios sentidos, aunque claramente no en otros. La inteligencia artificial, la robótica y la ciencia cognitiva han tenido importantes desarrollos teóricos y prácticos en los últimos años y todo parece indicar que estamos al comienzo de una impredecible e interesante aventura.

Las importantes limitaciones que presentan los robots hasta la fecha, me parece que no permiten desechar completamente el aporte de los sistemas computacionales más clásicos. En medio de estos loops recursivos que nos resultan impredecibles, nadie puede asegurar que no aparecerá un modelo que integre el enfoque de los sistemas seriales al desarrollo que en ese momento esté presentando esta nueva inteligencia artificial. La experiencia parece indicar que hay que dejar que la evolución haga su parte, pues hasta el momento parece haber actuado con cierto grado de inteligencia.


[1] Brooks, Rodney. Flesh and Machines. Pantheon Books. New York. 2002. Edición en español, Cuerpos y Máquinas. Ediciones B. Barcelona. 2003. p. 52.

[2] Ibíd., p. 65.

[3] Ibíd., p. 111.

miércoles, septiembre 05, 2007

Construyendo organismos inteligentes: una mirada desde la robótica (I Parte).


Francisco Varela, Evan Thompson y Eleanor Rosch, plantean que la cognición debe estudiarse como acción corporizada. Esto significa, por una parte, que la cognición está biológicamente determinada por un cuerpo que es capaz de establecer operaciones sensorio-motrices; por otro lado, implica también asumir que estas operaciones sensorio-motrices están en una relación de co-dependencia, de carácter recursivo, con el contexto biológico, psicológico y cultural en el que se encuentra este organismo. Desde esta perspectiva, los procesos sensoriales, motores, la percepción y la acción, no se pueden separar cuando nos referimos a los procesos cognitivos.

Para el enfoque enactivo[1], el objetivo es estudiar cómo el organismo que percibe puede guiar sus acciones en su entorno local, considerando que este entorno está cambiando constantemente como resultado de la acción del mismo organismo.

“El punto de referencia para comprender la percepción ya no es un mundo pre-dado, independiente del que percibe, sino más bien la estructura sensorio-motriz del agente cognitivo, el modo en que el sistema nervioso une superficies sensoriales y motrices. Más que un mundo pre-determianado, es esta estructura –la forma en que el sujeto que percibe está encarnado- la que determina los modos de acción posibles del que percibe y cómo éste puede ser moldeado por acontecimientos ambientales.”[2]

“La cognición ya no se encara como resolución de problemas a partir de representaciones; en cambio, la cognición en su sentido más abarcador consiste en la enactuación de un mundo –en hacer emerger un mundo- mediante una historia viable de acoplamiento estructural.”[3]

Han sido muchos años, en realidad siglos, durante los cuales, en el mundo occidental, hemos sido educados en una epistemología lineal-causal, adoptando una fe casi ciega en la racionalidad científica y en su método de estudio analítico. Las distinciones sujeto-objeto, mente-cuerpo y razón-emoción, son fundamentales para nuestra forma de concebir el mundo y a nosotros mismos. Cambiar esta forma particular de mirar no resulta fácil y no lo ha sido para quienes se han dedicado a estudiar la inteligencia y la cognición. Los estudios y avances alcanzados por la ciencia cognitiva, en sus distintos dominios, parece estarnos confrontando con este cambio de mirada. En palabras de Andy Clark:

“Pero ahora, cada vez es más evidente que la alternativa a la visión centrada en la ‘manipulación incorpórea de datos explícitos’ de la inteligencia artificial no es apartarse de la ciencia pura y dura; es profundizar en una ciencia más dura todavía. Es colocar la inteligencia en el lugar que le corresponde: en el acoplamiento entre los organismos y el mundo que se encuentra en la raíz de la acción fluida cotidiana.”[4]

Si adoptamos el concepto de inteligencia que propone Clark, el cual es consistente con los planteamientos antes realizados, esto es, entendiendo que la inteligencia se da en la relación entre el sujeto y su entorno, donde la acción conjunta de ambos sistemas permite resolver los problemas de la vida cotidiana, entonces no resulta muy aclarador sostener la idea de que un sistema representa al otro.

Estas ideas revolucionarias de la ciencia cognitiva, que habían sido ya formalmente planteadas por la cibernética en los inicios de esta ciencia, han sido incorporadas al ámbito de la robótica, con resultados que nos acercan velozmente a recrear, en la vida cotidiana, escenas de las películas y libros de ciencia ficción de mediados del siglo XX.

Rodney Brooks, quien es director del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT), narra su experiencia al intentar construir un robot:

“Yo había estado pensando en el modo de organizar la computación para controlar el robot. De alguna manera el sistema conectaría los procesos perceptivos que trataban los datos brutos de los sensores con los procesos motores que controlaban las órdenes a la base robótica. La cuestión radicaba en el modo de construir esta caja de computación (. . .) Esta caja era considerada como el departamento de cognición, el meollo del pensamiento y de la inteligencia. Decidí que el mejor modo de construirla sería eliminarla. Nada de cognición. Simplemente percepción y acción. Eso sería todo lo que crearía, dejando por completo fuera todo lo que tradicionalmente se concebía como la ‘inteligencia’ de una inteligencia artificial.”[5]

Brooks, cuestiona el concepto de inteligencia que utilizaba la inteligencia artificial en sus primeros años de desarrollo, pues ésta sólo consideraba el saber de un experto académico, dejando de lado la inteligencia que requiere un niño de cuatro o cinco años para desplazarse por su medio, la cual le permite actuar como todo un experto en el mundo, al distinguir sin esfuerzos una serie de objetos cotidianos, al caminar en dos pies y esquivar obstáculos, entre otras conductas que nos resultan “muy naturales” en un menor.

“Hacia los años ochenta, la mayoría de los consagrados a la inteligencia artificial habían comprendido que estos últimos problemas eran muy difíciles y en los veinte años transcurridos desde entonces, muchos han llegado a advertir que en realidad son notablemente más arduos que los de la primera serie. Ver, andar, sortear obstáculos y juzgar estéticamente no exigen por lo común una reflexión explícita o el desarrollo de una cadena de razonamientos. Tan sólo suceden.”[6]

Para el desarrollo de su robot, Brooks se inspiró en los insectos, quienes eran capaces de realizar conductas mucho más sofisticadas que las de cualquier robot en ese tiempo, mediados de los ochenta, tales como desplazarse velozmente de un lugar a otro evitando obstáculos, evitar a los depredadores y encontrar alimento y pareja. Dado que la capacidad de cómputo de un insecto era muy similar a la de un ordenador digital, la diferencia de rendimiento debía hallarse en la organización del sistema nervioso del animal. Estas reflexiones lo llevaron a cuestionar el clásico modelo representacional con el que operaba la ciencia cognitiva.

“La clave radicaba en conseguir que el robot reaccionara con tal velocidad ante sus sensores que no necesitase construir y mantener un modelo interior del mundo computacional. Podía referirse simplemente al mundo real a través de sus sensores cuando fuese preciso ver lo que pasaba. (. . .) Si tanto costaba construir y mantener un modelo interno del mundo, entonces me desembarazaría de él. Cualquier otro robot contaba con uno, pero no estaba claro que lo tuvieran los insectos. ¿Por qué pues habían de requerirlos nuestros robots?.”[7]


[1] Varela denomina de este modo su propuesta teórica, término que es un neologismo derivado del inglés “to enact”, que significa traer a la mano, hacer emerger. Para mayor detalle de este enfoque, véase Varela, F. et al., De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona.

[2] Varela, F. (1996), Ética y Acción, op. cit., p. 19.

[3] Varela, F. et al. (1997), De Cuerpo Presente, op. cit., p. 238.

[4] Clark, A. (1999) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva, op. cit., p. 42.

[5] Brooks, R. (2003) Cuerpos y Máquinas, Ediciones B, Barcelona, p. 47.

[6] Ibíd., p. 48.

[7] Ibíd., p. 52.

miércoles, agosto 08, 2007

El concepto de inteligencia en la ciencia cognitiva (II Parte).


Francisco Varela (1946-2001)


En un artículo de 1977, publicado en la revista Artificial Intelligence, David Marr, un importante teórico de la ciencia cognitiva, concibe de un modo bien particular a la inteligencia artificial, al señalar que trata de “el estudio de problemas complejos de procesamiento de la información que a menudo tienen sus raíces en algún aspecto del procesamiento biológico de la información.”[1]

Para Marr, los problemas que intenta resolver la inteligencia artificial pueden ser de dos tipos. Hay problemas para los cuales se puede saber con claridad qué debe hacer el algoritmo que se elabora para su implementación y resolución. Esta información puede ser captada por el enfoque computacional clásico y, en este caso, el problema tiene una teoría tipo 1, como él la denomina. Sin embargo, no todos los problemas, especialmente en el ámbito de la biología, corresponden a los que tienen una teoría tipo 1. Hay problemas que para resolverlos se requiere la acción simultánea de muchos procesos, “cuya interacción es su propia descripción más sencilla”. Estos problemas, según Marr, tienen una teoría del tipo 2. Un ejemplo de este tipo de problema sería predecir cómo se pliega una proteína y las consecuencias de este tipo de problemas, Marr las ilustra de la siguiente manera:

“Hay muchas cosas que influyen en una cadena polipeptídica larga cuando se sacude y agita en un medio. En cada momento sólo unas cuantas interacciones posibles serán importantes, pero su importancia es decisiva. Los intentos para construir una teoría simplificada deben ignorar algunas interacciones; pero si la mayoría de ellas son cruciales en cierta etapa del plegamiento, una teoría simplificada resultará inadecuada. (. . . )

La principal dificultad en la IA es que nunca se tiene la suficiente seguridad de que el problema tiene una teoría del tipo 1. Si se encuentra una, cuánto mejor, pero no encontrarla no significa que no exista.”[2]

La pregunta que surge de estos planteamientos es que si los problemas de la vida cotidiana que enfrenta un organismo o agente corresponden fundamentalmente a situaciones complejas donde simultáneamente actúan muchos procesos, de índole física, química, biológica, psicológica y social, ¿pueden ser efectivamente abordados y explicados exclusivamente por el enfoque computacional de la inteligencia artificial?, y de no ser así, ¿puede la arquitectura simbólica o serial dar cuenta, por sí sola, de una conducta propiamente inteligente?.

Francisco Varela, comenta el giro que tuvo la investigación en la ciencia cognitiva y en la inteligencia artificial luego de que se hicieron evidentes las falencias del modelo computacional.

“La culminación de la experiencia de las dos primeras décadas de predominio cognitivista se puede expresar señalando una convicción que cobró progresivo arraigo en la comunidad de investigadores: es preciso invertir al experto y al niño en la escala de desempeños. Los primeros intentos procuraban resolver los problemas más generales, (. . .). Se consideraba que estos intentos, que procuraban emular la inteligencia de un experto dotado de gran capacitación, abordaban los problemas difíciles e interesantes. A medida que los intentos se volvieron más modestos y localizados, resultó evidente que la inteligencia más profunda y fundamental es la del bebé que puede adquirir el lenguaje a partir de manifestaciones cotidianas dispersas, y puede constituir objetos significativos a partir de lo que parece un mar de luces.”[3]

“Existen fuertes indicaciones de que el conjunto de ciencias que tratan del conocimiento y de la cognición –las ciencias cognitivas- lentamente han ido cobrando conciencia de que las cosas han sido planteadas al revés y han comenzado un radical viraje paradigmático o epistémico. El núcleo de esta visión emergente es la convicción de que las verdaderas unidades de conocimiento son de naturaleza eminentemente concreta, incorporadas, encarnadas, vividas; que el conocimiento se refiere a una situacionalidad; y que lo que caracteriza al conocimiento –su historicidad y su contexto- no es un ‘ruido’ que oscurece la pureza de un esquema que ha de ser captado en su verdadera esencia, una configuración abstracta.”[4]

La capacidad que tienen los sistemas conexionistas de aprender a través de la experiencia, mediante ciclos recursivos de retroalimentación, les permite contar con una autonomía y flexibilidad de la que adolecen los sistemas que operan bajo un procesamiento serial. Estas características, hacen posible que estos sistemas presenten conductas inteligentes como resultado de su dinámica organizacional, es decir, la inteligencia emerge de la forma de operar que tiene este sistema.

“En este enfoque, cada componente opera sólo en un ámbito local, de modo que ningún agente externo hace girar el eje del sistema. Pero como el sistema está constituido como red, hay una cooperación global que emerge espontáneamente cuando los estados de todas las ‘neuronas’ participantes alcanzan un estado mutuamente satisfactorio. En dicho sistema, pues, no se requiere una unidad procesadora central que guíe la operación. Este tránsito desde las reglas locales hacia la coherencia global es el corazón de aquello que en la era cibernética se llamaba autoorganización. Hoy se prefiere hablar de propiedades emergentes o globales, dinámica de red, redes no lineales, sistemas complejos e incluso sinergia.”[5]

El enfoque conexionista y los sistemas basados en este tipo de arquitectura, si bien presentan propiedades que los aproximan significativamente a los sistemas biológicos, no deben considerarse, necesariamente, como la superación final de los sistemas seriales o simbólicos. De hecho, autores como W. Daniel Hillis, entre otros, a pesar de adoptar un enfoque conexionista, se resisten a la idea de refutar de plano a los sistemas más clásicos. Este autor señala: “El sistema emergente que puedo imaginar con más facilidad sería una implementación del pensamiento simbólico antes que una refutación de él. El pensamiento simbólico sería una propiedad emergente del sistema.”[6]

Para Andy Clark, destacado teórico de la ciencia cognitiva y director del Philosophy-Neuroscience-Psychology Program de la Universidad de Washington, las redes neuronales artificiales presentan tanto ventajas como inconvenientes.

“Son capaces de tolerar datos ‘ruidosos’, imperfectos o incompletos. Son resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen la integración simultánea de muchas pequeñas señales o elementos de información, una capacidad que es esencial para el reconocimiento perceptivo y el control motor en tiempo real. Estas ventajas se derivan del hecho de que estos sistemas se dedican a completar patrones con un procesamiento en paralelo masivo. (. . .) Incluso algunos fallos de estos sistemas son atrayentes en el plano psicológico. Pueden sufrir ‘interferencias’ cuando unas codificaciones similares se obstaculizan mutuamente (de manera similar a cuando aprendemos un número de teléfono que se parece a otro que ya sabemos y enseguida los confundimos, olvidándonos de los dos). Y no son intrínsecamente adecuados para la resolución de problemas secuencial y gradual típica de la lógica y la planificación. (. . .) Los sistemas clásicos, con sus direcciones de memoria ordenadas y bien definidas, son inmunes a estas interferencias y ofrecen un rendimiento excelente en la resolución de problemas lógicos y secuenciales, pero rinden mucho peor en tareas de control en tiempo real.”[7]

Clark, aclara que estas desventajas o inconvenientes de los sistemas conexionistas no son necesariamente malos, pues si aspiramos a modelar la cognición humana, “se deben favorecer aquellos fundamentos computacionales que produzcan una pauta de puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al fútbol que en lógica.”[8]

George Reeke y Gerald Edelman, Premio Nobel de Medicina en 1972, plantearon hace más de una década, que la inteligencia artificial necesitaba integrar los conocimientos de la neurobiología para seguir avanzando, debía observar con mayor atención a los sistemas biológicos que son los que realmente presentan conductas inteligentes, abandonando la noción de inteligencia como una actividad solamente abstracta de procesamiento de la información y adoptando un enfoque que respete la complejidad de los organismos y de los sistemas biológicos.

“Una confrontación del número de niveles interactivos en un organismo real capaz de conducta inteligente revela una estremecedora complejidad de interacciones no lineales. Si se agrega la transmisión social a través del lenguaje, la complejidad se incrementa aún más. A la vista de esta complejidad, parece ser el colmo de la arrogancia pensar que todos los problemas que confrontan las criaturas inteligentes se pueden comprender ponderándolos en abstracto. En vez de eso, se debe comenzar a analizar esos sitemas en términos de las estructuras y funciones básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución. (. . .) Creemos que la IA finalmente sólo se alcanzará en sistemas no-von Neumann en los que variantes especializadas de hardware, basadas en el tema común de la selección y el pensamiento de la población, trabajarán sin programas para adaptarse a los ambientes particulares en los que se encuentren, tal como lo hacen los organismos biológicos.”[9]

Hubert y Stuart Dreyfus, cuestionan también que la inteligencia artificial, en su corriente conexionista, pueda presentar significativos avances si no abandona el concepto abstracto y descontextualizado que maneja de la inteligencia, de manera que la red o el sistema pueda hacer generalizaciones adecuadas del conocimiento que ha adquirido mediante su experiencia. Ellos señalan:

“Todos los diseñadores de redes neurales concuerdan en que para que una red sea inteligente debe ser capaz de generalizar; es decir, dados suficientes ejemplos de entradas asociadas a una salida particular, la red debería asociar más entradas del mismo tipo con el mismo tipo de salida. (. . .)

El problema aquí es que el diseñador ha determinado, mediante la arquitectura de la red, que nunca se encuentren ciertas generalizaciones posibles. Todo eso está bien y es aceptable para problemas de juguete en los que no se cuestiona qué constituye una generalización razonable, pero en situaciones del mundo real gran parte de la inteligencia humana consiste en generalizar de manera adecuada al contexto. (. . .)

Si ha de aprender a partir de sus propias ‘experiencias’ para realizar asociaciones semejantes a las humanas y no aprender las asociaciones que su entrenador ha especificado, una red también debe compartir nuestro sentido de adecuación a la salida de datos, y esto significa que debe compartir nuestras necesidades, deseos y emociones y tener, además, un cuerpo semejante al humano con movimientos físicos apropiados, así como habilidades y vulnerabilidad a las lesiones.

(. . .) La inteligencia tiene que motivarse mediante propósitos en el organismo y a través de las metas que éste seleccione a partir de una cultura en curso. Si la mínima unidad de análisis es la de todo un organismo adaptado a todo un mundo cultural, las redes neurales y las computadoras de programación simbólica todavía tienen un largo camino por recorrer.”[10]

Sin lugar a dudas, en los últimos años se han ido gestando importantes, e incluso revolucionarios, cambios paradigmáticos y epistemológicos en la forma que tenemos de entender al ser humano y la conducta inteligente. El avance que en materia de inteligencia artificial hemos tenido ha sido vertiginoso y los resultados alcanzados parecen indicar que se está actuando en forma inteligente. Quisiera terminar con las palabras de John Briggs y F. David Peat, quienes me parece resumen de muy buena forma lo hasta aquí tratado.

“Aún está por verse si la ruta conexionista hacia la IA puede triunfar. No obstante, es significativo que ahora los científicos cifren sus esperanzas en los aspectos no reduccionistas de la complejidad para resolver el problema de crear una máquina capaz de pensar. Sin duda la ciencia ha recorrido un largo camino desde esos días en que se creía que los aspectos previsibles y racionales de las máquinas eran la imagen del universo.”[11]


[1] Marr, D. “La inteligencia artificial: un punto de vista personal” en Boden, M. (1994), Filosofía de la Inteligencia Artificial, FCE, México, p. 153.

[2] Ibíd., p. 155.

[3] Varela, F. et al.(1997), De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana. Ed. Gedisa, Barcelona, pp. 112-113.

[4] Varela, F. (1996) Ética y Acción, Dolmen Ediciones, Santiago, pp. 13-14.

[5] Varela, F. et al.(1997). op. cit. pp. 114-115.

[6] Hillis, W.D., “La inteligencia como conducta emergente, o la canción del Edén” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 203.

[7] Clark, A. (1997) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva, Ed. Paidós, Barcelona, pp. 100-101.

[8] Ibíd., p. 101.

[9]Reeke, G. y Edelman, G. “Cerebros reales e inteligencia artificial” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 198.

[10] Dreyfus, H. y Dreyfus, S. “La construcción de una mente versus el modelaje del cerebro: la inteligencia artificial regresa a un punto de ramificación” en Boden, M. (1994), “Filosofía de la Inteligencia Artificial”, FCE, México, pp. 369-370.

[11] Briggs, J. y Peat, F. (1990) Espejo y Reflejo: Del caos al orden, Ed. Gedisa, Barcelona, p. 174.