Muy buenas... He leído varias de tus respuestas y me han parecido muy interesantes; es por eso que te escribo para pedir tu opinión sobre una de las cuestiones filosóficas que- supongo yo- más darán que hablar en los próximos años: a medida que la rapidez y la capacidad de los ordenadores aumentan, el interrogante de si los seres humanos no somos más que máquinas con una programación muy compleja se hace más acuciante. Éste es un tema que me interesa mucho y he leído bastante sobre el tema, pero no soy un filósofo. En particular, me gustaría preguntarte si las ideas de Roger Penrose a este respecto te parecen válidas desde un punto de vista estrictamente filosófico o son simplemente opiniones documentadas. Además (ya que estamos) me gustaría también conocer qué opinas tú de este nuevo "pseudodeterminismo".
Muchas Gracias.
Resulta al menos curioso observar de qué manera la ciencia moderna ha devorado su propio proyecto. En el siglo XVII, el filósofo francés Rene Descartes puso sobre la mesa lo que habría de ser durante un par de siglos el objetivo de la ciencia: la reducción de lo empírico a matemática. Le mente humana, aseguraba Descartes, ha de poder -quizás no ahora, ni mañana tampoco, pero ha de ser posible en algún momento- reducir (explicar) todo lo que la experiencia nos ofrece en términos matemáticos. Pero: la mente humana misma no es reductible a matemática en ningún caso puesto que, en ningún caso, es empírica o material o sensible. Hoy en día no todos los científicos, herederos de ese proyecto cartesiano de una mathesis universal, salvarían la mente humana de la reducción a matemática. ¿Por qué la mente humana o la conciencia o el yo, no habría también de poder ser explicada en los mismos términos con que se explica el funcionamiento de un mecanismo? Que sea muy difícil hacerlo sólo prueba que la mente humana es un mecanismo complejo. De hecho, arguyen algunos, es posible llegar a simular el funcionamiento de la mente humana por medio de mecanismos (robots, ordenadores superpotentes que compiten -y vencen- a maestros internacionales de ajedrez, etc.). En este tema hay demasiados asuntos en juego para que pueda ser abordado de forma fácil y breve. Sólo apuntaré algunos, aquellos sobre los que creo que es interesante reflexionar: 1) ¿Es la mente humana un computador? La mente humana procesa información y, desde este punto de vista, existe una analogía con el computador. Los computadores son muy útiles para simular determinados fenómenos mentales (por ejemplo el razonamiento). Pero: ¿Pueden los ordenadores ya no simular sino funcionar como mentes humanas, ser mentes? El matemático Alan Turing diseñó una prueba teórica para poder resolver ese cuestión: si yo -una mente humana- entablo un diálogo con dos entidades -otra mente humana y un computador- y soy absolutamente incapaz de diferenciar quién es quién, entonces podrá decirse que hay computadores que funcionan como mentes humanas. (Dicen los entendidos en ajedrez que la primera versión de Deep Blue, el computador que derrotó a Kasparov, jugaba como un humano... ¿significa eso la superación de la prueba de Turing?) 2) ¿Es suficiente el procesamiento de la información para asegurar que un computador es una mente? Bien, el filósofo J. Searle diseñó un experimento teórico conocido como "la habitación china" para demostrar que no es suficiente con procesar información (input/output) para concluir que un computador es una mente humana. Te ahorraré la descripción del experimento (que, por otra parte, puedes leer en un artículo de Searle titulado "Mentes, cerebros y programas"), pero la conclusión es que un ordenador se puede comportar como un ser humano en el sentido de responder adecuadamente al estímulo correcto, pero no entiende nada. El computador es un manipulador de símbolos sin comprensión. 3) El problema, contestan los rivales de Searle, es qué demonios es eso de la comprensión. Si es una propiedad intrínseca del sistema o bien es una cualidad descrita por el observador del sistema. Cuando yo hablo con una persona puedo decir: "sé que me comprende". ¿Qué quiero decir con esto? ¿El sistema está dotado de comprensión -¿Y qué es esto?- ¿O el sistema está programado para emitir una serie de señales que yo interpreto como comprensión? 4) Otro problema no menos grave: ¿Es todo computable? Si los ingenieros informáticos tienen ya suficientes problemas para diseñar programas aptos para predecir el tiempo meteorológico o el comportamiento de los incendios, ¿qué decir de la mente humana? Si se inventase un programa que predice la conducta humana, ¿Querría ello decir que la libertad habría dejado de existir? Bueno, yo creo que es mejor encarar el asunto no por sus consecuencias (al fin y al cabo, la negación de la libertad humana tiene lugar cada día, y sin mediación de ningún programa informático...), sino por sus principios: si la conducta humana es computable, es decir, es exhaustivamente descriptible en términos de causa y efecto (un "sistema de producción"), entonces es preciso determinar en general qué es causa de qué. Si yo tomo una decisión POR, ¿qué la motiva en general? ¿La motiva mi estado cerebral quizás? No puede ser de otra forma si queremos cumplir el requisito de que "todo es computable" (reductible a matemática, en términos cartesianos). Así pues, es en el cerebro donde hallaremos la clave de la mente y la conducta humanas. Este "monismo materialista" por supuesto no es compartido por todos los filósofos ni por todos los psicólogos. 5) Se dice a menudo que una diferencia entre la mente humana y un computador es la creatividad, la capacidad de aprendizaje. Un computador nace con una serie de habilidades que no puede mejorar salvo que el programa sea substituido por otro. Un computador es incapaz de operar no algorítmicamente (es decir, pasito a pasito, sin saltarse ni uno, aunque tarde mucho tiempo). ¿Es esto así? Te recomiendo la lectura de un artículo del filósofo Daniel Dennet titulado "La conciencia en la mente humana y en la de un robot". Dennet formó parte de un proyecto junto con algunos investigadores del Laboratorio de inteligencia artificial del MIT. El proyecto era, en palabras de Dennet: "... fabricar un "niño" robot inicialmente inconsciente o no consciente y dejarlo "madurar" hasta llegar a la conciencia, aproximadamente como ocurre con todos nosotros". Un robot que aprendiera de la experiencia y que mejorase el programa innato y además que transmitiera ese programa a la siguiente generación. Bueno, no quiero hacerme pesada, me alegra de que alguien se interese por los temas de la filosofía de la mente y la inteligencia artificial y que lea libros como los de Roger Penrose (La nueva mente del emperador, supongo). Ah, en el mes de octubre Kasparov se enfrenta con una nueva versión de Deep Blue, veremos quien gana... Rolfo