Conocimiento y lenguaje. AAVV
1946-1949: Eckert y Mauchly construyen el BINAC (Binary Automatic Computer).
- 1947: un artículo de Turing inaugura la inteligencia artificial.
- 1947: Tercera Conferencia Macy sobre «Mecanismos teleológicos».
- 1948: Norbert Wiener publica La cibernética.
- 1948: Cuarta y Quinta Conferencia Macy, la quinta específicamente dedicada a temas lingüísticos.
- 1949: Sexta Conferencia Macy sobre «Cibernética». El biofísico Heinz von Foerster introduce sus teorías sobre una base molecular de los procesos de memoria.
- 1950: el «test de Turing»: plantea un juego de imitación de rol para comprobar si una máquina tiene un comportamiento inteligente.
- 1952: IBM comercializa su ordenador de primera generación.
- 1960: George Miller y Jerome Bruner fundan el Centro de Estudios Cognitivos en la Universidad de Harvard.
En los inicios de la informática, pues, el cerebro proporciona a los ingenieros un modelo de referencia que se intentaba imitar, duplicar. Progresivamente, sin embargo, esta metáfora computacional experimenta lo que podríamos llamar un «giro especular»: si en el planteamiento inicial los ingenieros de la comunicación tratan de construir máquinas que reproduzcan el funcionamiento neuronal, a partir de los años 50 esta posición se va invirtiendo y es el funcionamiento cerebral el que poco a poco se pretende explicar desde la metáfora computacional: pasamos de inventar máquinas como cerebros, a describir el funcionamiento del cerebro en términos informáticos. Los trabajos de Turing, por ejemplo, se cimentan en la equiparación «ordenador como cerebro»:
Turing propone que pueden diseñarse máquinas que tengan un comportamiento inteligente. Para ello, utiliza el cerebro humano como analogía para describir las características de esa máquina. Si la inteligencia humana se potencia con aprendizaje, igual se puede hacer con la máquina, es decir, organizar su «inteligencia». Se trataría de máquinas que imiten al hombre o alguna de sus funciones o comportamientos [...]. Turing sugiere que los circuitos eléctricos de las máquinas de computación podrían imitar al sistema nervioso, pues son capaces de transmitir información de un lugar a otro y almacenarla (Romero, 1998: 419).
La misma postura encontramos en otras propuestas de formalización de los años 40 y 50, que tomaban el modelo cerebral como referente para construir modelos físicos. Los teóricos de la cibernética, sin embargo, plantean ya la equiparación en términos diferentes; para Wiener, por ejemplo, el pensamiento podía estudiarse a partir de la simulación del funcionamiento de las redes neuronales. Conceptos básicos como «retroalimentación», «sistema homeostático» o «entropía» son paulatinamente incorporados por la psicología del momento hasta que los sucesivos avances teóricos y tecnológicos culminan, según hemos adelantado, en una inversión de la metáfora:
Esta posibilidad de analizar la mente como un sistema de cómputo fue precisamente la idea clave que posibilitó poco después el trasvase de todas estas nuevas teorías a la psicología [...]. Estas nuevas teorías matemáticas de la computabilidad y la aparición inmediata de los ordenadores harían posible rescatar el estudio «respetable» de la mente: los productos mentales son ahora «objetos computables» o resultados de «algoritmos de cómputo» [...]. Ahora la mente es para el cerebro como el programa para el ordenador, y con ello se puede simular el funcionamiento de la mente mediante algoritmos o secuencias de operaciones entre procesos (Romero, 1998: 429).
La metáfora computacional, especialmente en sus versiones más radicales, ha sido criticada desde planteamientos funcionalistas y pragmáticos. Por ejemplo, John Searle, en las Conferencias Reith de 1984 (conferencias científico-divulgativas que emite por radio la BBC desde 1948 [en línea], <http://www.bbc.co.uk/ radio4/reith>), publicadas como Mentes, cerebros y ciencia, plantea que la asimilación mente/ordenador en su versión fuerte, más propia de la inteligencia artificial que de la psicología cognitiva, ignora la raíz esencialmente biológica de la mente humana; señala, además, cómo en épocas anteriores se han utilizado también los avances tecnológicos para plantear metáforas parecidas igualmente equivocadas (Leibniz decía que la mente funciona como un molino y Freud la comparaba con sistemas hidráulicos o electromagnéticos). En el artículo «¿Pueden los ordenadores pensar?», Searle plantea una alternativa al Test de Turing que se conoce como Test de la cámara china, y que le lleva a concluir que los programas formales de los ordenadores son ejemplos perfectos de sintaxis, pero carecen de semántica:
La pregunta que queríamos plantear es esta: «¿Puede un computador digital, tal como se ha definido, pensar?» Es decir, «¿es suficiente para, o constitutivo de, pensar el instanciar o llevar a cabo el programa correcto con los inputs y outputs correctos?» Y a esta pregunta, a diferencia de sus predecesoras, la respuesta es claramente «no». Y es «no» por la razón que hemos puesto de manifiesto reiteradamente, a saber: el programa del computador está definido de manera puramente sintáctica. Pero pensar es algo más que manipular signos carentes de significado, incluye contenidos semánticos significativos [...]. Si se trata realmente de un computador, sus operaciones tienen que definirse sintácticamente, mientras que la conciencia, los sentimientos, los pensamientos, las sensaciones, las emociones y todo lo demás incluyen algo más que una sintaxis. Por definición, el computador es incapaz de duplicar esos rasgos por muy poderosa que pueda ser su capacidad para simular. La distinción clave aquí es la que se da entre duplicación y simulación. Y ninguna simulación constituye, por sí misma, duplicación (Searle, 1984: 42-43).
El procesamiento de la información que realiza un ordenador no es asimilable al que realiza una persona, pues ésta pasa por una serie de estados mentales que el ordenador puede simular, pero no duplicar; es lo que llama «procesamiento de la información como si» (1984: 57). Para Searle, los defensores de la versión radical del cognitivismo confunden continuamente estos dos procesamientos de la información, por lo que se ven obligados a proponer un nivel computacional intermedio que sirva de puente entre los circuitos neuronales y los circuitos mentales; pero según Searle este tercer nivel no es necesario, pues existe una determinación biológica que permite el correlato directo entre lo neurofisiológico y lo cognitivo. Ese correlato directo es el que incorpora Pulvermüller (2002: 9) en su aceptación de la metáfora computacional, que nos remite al ya mencionado isomorfismo de la relación mente/cerebro:
La idea aquí es que esas estructuras anatómicas están relacionadas con las computaciones en que se ven implicadas. La maquinaria cerebral no es simplemente un modo arbitrario de llevar a cabo los procesos que realiza, a la manera en que, por ejemplo, cierta configuración de hardware de ordenador puede realizar casi cualquier programa de ordenador o pieza de software. Lo esencial aquí, por el contrario, es que el hardware revela aspectos del programa. «La estructura neuronal es información» [...]. En otras palabras, podría ser que las propias estructuras neuronales por sí mismas nos enseñen aspectos de los procesos computacionales que subyacen a tales estructuras.
Esta versión matizada de la metáfora computacional es compatible con los modelos holistas o interaccionales de funcionamiento del cerebro, en los que función y estructura se determinan mutuamente. Tal y como señala Hernández (2003: 9), en lingüística esta orientación cognitiva entronca con planteamientos epistemológicos emergentistas, según los cuales la emergencia de cierta función en un sistema dado determina la constitución de niveles de ese sistema. Hernández utiliza el concepto de redefinición para describir la interacción dialéctica que acontece genéticamente entre estructuras neurológicas, piscológicas y lingüísticas, de tal manera que mientras cierto estrato depende genéticamente de otro, a su vez lo condiciona, estableciendo procesos bidireccionales.
3.3.2 El funcionalismo de Jerome S. Bruner
Jerome S. Bruner es un representante de lo que a veces (Searle, 1984: 33) se llama «cognitivismo suave», por oposición a la versión «fuerte» que representan algunos teóricos procedentes de la inteligencia artificial (Herbert Simon, Alan Newell). A diferencia de los generativistas, Bruner no se plantea cuál debe ser la dotación genética inicial del niño; para él son igualmente poco plausibles los «imposibles» enfoques conductistas (la adquisición del lenguaje es un aprendizaje similar a otros)