Asimov, ¿Sueño o pesadilla?

Muy buenas... He leído varias de tus respuestas y me han parecido muy interesantes; es por eso que te escribo para pedir tu opinión sobre una de las cuestiones filosóficas que- supongo yo- más darán que hablar en los próximos años: a medida que la rapidez y la capacidad de los ordenadores aumentan, el interrogante de si los seres humanos no somos más que máquinas con una programación muy compleja se hace más acuciante. Éste es un tema que me interesa mucho y he leído bastante sobre el tema, pero no soy un filósofo. En particular, me gustaría preguntarte si las ideas de Roger Penrose a este respecto te parecen válidas desde un punto de vista estrictamente filosófico o son simplemente opiniones documentadas. Además (ya que estamos) me gustaría también conocer qué opinas tú de este nuevo "pseudodeterminismo".
Muchas Gracias.

1 Respuesta

Respuesta
1
Resulta al menos curioso observar de qué manera la ciencia moderna ha devorado su
propio proyecto. En el siglo XVII, el filósofo francés Rene Descartes puso sobre la
mesa lo que habría de ser durante un par de siglos el objetivo de la ciencia: la
reducción de lo empírico a matemática. Le mente humana, aseguraba Descartes, ha de poder -quizás no ahora, ni mañana tampoco, pero ha de ser posible en algún momento- reducir (explicar) todo lo que la experiencia nos ofrece en términos matemáticos. Pero: la mente humana misma no es reductible a matemática en ningún caso puesto que, en ningún caso, es empírica o material o sensible.
Hoy en día no todos los científicos, herederos de ese proyecto cartesiano de una
mathesis universal, salvarían la mente humana de la reducción a matemática. ¿Por
qué la mente humana o la conciencia o el yo, no habría también de poder ser explicada en los mismos términos con que se explica el funcionamiento de un
mecanismo? Que sea muy difícil hacerlo sólo prueba que la mente humana es un
mecanismo complejo. De hecho, arguyen algunos, es posible llegar a simular el
funcionamiento de la mente humana por medio de mecanismos (robots, ordenadores superpotentes que compiten -y vencen- a maestros internacionales de ajedrez, etc.).
En este tema hay demasiados asuntos en juego para que pueda ser abordado de forma
fácil y breve. Sólo apuntaré algunos, aquellos sobre los que creo que es interesante
reflexionar:
1) ¿Es la mente humana un computador? La mente humana procesa información y, desde este punto de vista, existe una analogía con el computador. Los computadores
son muy útiles para simular determinados fenómenos mentales (por ejemplo el
razonamiento). Pero: ¿Pueden los ordenadores ya no simular sino funcionar como mentes humanas, ser mentes? El matemático Alan Turing diseñó una prueba teórica para poder resolver ese cuestión: si yo -una mente humana- entablo un diálogo con dos entidades -otra mente humana y un computador- y soy absolutamente incapaz de
diferenciar quién es quién, entonces podrá decirse que hay computadores que funcionan como mentes humanas. (Dicen los entendidos en ajedrez que la primera versión de Deep Blue, el computador que derrotó a Kasparov, jugaba como un
humano... ¿significa eso la superación de la prueba de Turing?)
2) ¿Es suficiente el procesamiento de la información para asegurar que un computador es una mente? Bien, el filósofo J. Searle diseñó un experimento teórico
conocido como "la habitación china" para demostrar que no es suficiente con procesar información (input/output) para concluir que un computador es una mente
humana. Te ahorraré la descripción del experimento (que, por otra parte, puedes leer en un artículo de Searle titulado "Mentes, cerebros y programas"), pero la conclusión es que un ordenador se puede comportar como un ser humano en el sentido de responder adecuadamente al estímulo correcto, pero no entiende nada. El computador es un manipulador de símbolos sin comprensión.
3) El problema, contestan los rivales de Searle, es qué demonios es eso de la
comprensión. Si es una propiedad intrínseca del sistema o bien es una cualidad
descrita por el observador del sistema. Cuando yo hablo con una persona puedo decir:
"sé que me comprende". ¿Qué quiero decir con esto? ¿El sistema está dotado de
comprensión -¿Y qué es esto?- ¿O el sistema está programado para emitir una serie de
señales que yo interpreto como comprensión?
4) Otro problema no menos grave: ¿Es todo computable? Si los ingenieros
informáticos tienen ya suficientes problemas para diseñar programas aptos para
predecir el tiempo meteorológico o el comportamiento de los incendios, ¿qué decir
de la mente humana? Si se inventase un programa que predice la conducta humana,
¿Querría ello decir que la libertad habría dejado de existir? Bueno, yo creo que es
mejor encarar el asunto no por sus consecuencias (al fin y al cabo, la negación de la
libertad humana tiene lugar cada día, y sin mediación de ningún programa informático...), sino por sus principios: si la conducta humana es computable, es
decir, es exhaustivamente descriptible en términos de causa y efecto (un "sistema de
producción"), entonces es preciso determinar en general qué es causa de qué. Si yo
tomo una decisión POR, ¿qué la motiva en general? ¿La motiva mi estado cerebral quizás? No puede ser de otra forma si queremos cumplir el requisito de que "todo es computable" (reductible a matemática, en términos cartesianos). Así pues, es en el cerebro donde hallaremos la clave de la mente y la conducta humanas. Este "monismo materialista" por supuesto no es compartido por todos los filósofos ni por
todos los psicólogos.
5) Se dice a menudo que una diferencia entre la mente humana y un computador es la
creatividad, la capacidad de aprendizaje. Un computador nace con una serie de
habilidades que no puede mejorar salvo que el programa sea substituido por otro. Un
computador es incapaz de operar no algorítmicamente (es decir, pasito a pasito, sin saltarse ni uno, aunque tarde mucho tiempo). ¿Es esto así? Te recomiendo la lectura
de un artículo del filósofo Daniel Dennet titulado "La conciencia en la mente humana
y en la de un robot". Dennet formó parte de un proyecto junto con algunos
investigadores del Laboratorio de inteligencia artificial del MIT. El proyecto era, en palabras de Dennet: "... fabricar un "niño" robot inicialmente inconsciente o no consciente y dejarlo "madurar" hasta llegar a la conciencia, aproximadamente como ocurre con todos nosotros". Un robot que aprendiera de la experiencia y que mejorase
el programa innato y además que transmitiera ese programa a la siguiente generación.
Bueno, no quiero hacerme pesada, me alegra de que alguien se interese por los temas de la filosofía de la mente y la inteligencia artificial y que lea libros como los de Roger Penrose (La nueva mente del emperador, supongo). Ah, en el mes de octubre Kasparov se enfrenta con una nueva versión de Deep Blue, veremos quien gana...
Rolfo

Añade tu respuesta

Haz clic para o

Más respuestas relacionadas