Clases de filosofía para robots

Foto_JA_Agejas
Leí recientemente en el periódico que los ingenieros de las grandes empresas automovilísticas que están desarrollado los coches sin conductor han hecho lo más fácil: crear la tecnología y fabricarlos. Pero que ahora viene lo más difícil: que sepan tomar decisiones «acertadas». Vamos, que los filósofos han tenido que acudir en rescate de los ingenieros.
Ya casi no damos abasto no digo a asimilar los avances tecnológicos con los que convivimos, sino casi ni a percatarnos de ellos. Si lo pensamos un poco, la mayoría son herramientas que nos facilitan sobremanera la resolución de muchas de nuestras operaciones diarias. Pero no nos sustituyen radicalmente en las decisiones sobre el contenido de las mismas. El problema surge cuando construimos máquinas que tienen que interactuar con sujetos humanos simulando que son otro sujeto más. Vuelve a la palestra la cuestión que el escritor Philip K. Dick planteó ya desde el título de su novela más leída: ¿sueñan los androides con ovejas eléctricas?
Fue quizá la genial adaptación cinematográfica, Blade Runner, la que aupó a la fama este relato. Recuerden las cuestiones que se van planteando con la trama: ¿Tienen conciencia los replicantes? ¿Seremos capaces de crear robots que repliquen hasta tal punto nuestra condición que asuman por igual todas nuestras facultades y capacidades? En definitiva, ¿podrán sustituirnos?
El debate sobre las relaciones entre la inteligencia humana y la artificial es amplísimo y muy interesante. Sobre todo, porque nos hace plantearnos muy bien qué es lo específicamente humano de las operaciones mentales. Porque queda claro que lo humano no es hacer cuentas muy rápido, que las calculadoras entraron en nuestras vidas hace décadas, aunque en el colegio no nos las dejaran usar. Y ahí está una de las claves: claro que una máquina puede hacer más operaciones en menos tiempo. Pero para las que ya está programada, no otras.
Los diseñadores de sistemas de inteligencia artificial ya han dado un nuevo paso: máquinas capaces no sólo de reproducir operaciones programadas, sino de aprender por sí mismas. Llegamos aquí a la otra clave que quería comentar. Creo que esto es «aprendizaje» sólo en un sentido parcial. Las máquinas no son capaces de discernir el sentido de su existencia. Este el sentido fuerte de la conciencia de sí, y en consecuencia, de la conciencia moral. Me encantaría estar en el debate de los equipos de ingenieros y filósofos. Sobre todo para saber si han visto Blade Runner como primera etapa de sus reuniones y han analizado el monólogo del final de la película, cuando el replicante Roy salva en el último momento a Deckard y le dice aquello de
«Es toda una experiencia vivir con miedo, ¿verdad? Eso es lo que significa ser esclavo. Yo he visto cosas que vosotros no creeríais (…) Todos esos momentos se perderán en el tiempo como lágrimas en la lluvia. Es hora de morir».
El replicante puede decidir morirse, pero no matar. Puede tener experiencias similares a las genuinamente humanas, pero no iguales porque no es capaz de darles sentido, porque no puede buscarlo. Tiene miedo porque no tiene libertad. Quiere filosofar, pero no sabe cómo ni para qué.
Era previsible. Lo más problemático y difícil de resolver de los últimos avances tecnológicos tiene sus claves de solución en el ámbito de las Humanidades y la Filosofía. Supongo que si los grandes proyectos las necesitan, cada uno de nosotros también, ¿no? Les animo a buscarlas. Pero ya saben que no en las últimas reformas educativas: incluso, un robot las habría hecho mejor.