lunes, 25 de junio de 2012

Ciencia-Ficción e Inteligencia Artificial: De John McCarthy a los hermanos Watchovsky


Conforme uno ahonda en las lecturas filosóficas se acostumbra a ganar cierta “tolerancia” a las ideas extrañas, increíbles o inverosímiles. Es una cualidad de buen filósofo el saber dar el beneficio de la duda hasta a las exposiciones y teorías más bizarras. La historia de la filosofía está plagada de ejemplos de planteamientos teóricos muy alejados de reflejar la realidad palpable que se han sostenido y defendidos durante siglos, por lo que es de sabios no  cerrarse en banda a cualquier idea planteada que inicialmente no nos parece verosímil.
Inicio esta nueva entrada diciendo esto porque os debo pedir un pequeño esfuerzo de imaginación para el tema que trataré.  Es muy fácil que conforme avance el artículo caigáis en el error de decir “Menudo flipado” o “Vaya exageración”, pero os pediría que llegaseis al final antes emitir vuestro juicio y dieseis ese margen de duda razonable que se necesita para apreciar la reflexión realizada.

Pensemos por un momento en objetos cotidianos que nos rodean actualmente: teléfonos móviles con videoconferencia y conexión a Internet, aires acondicionados que se autorregulan dependiendo de las personas presentes y la temperatura ambiente, reproductores de música con capacidad para miles de canciones, juguetes que reaccionan a los estímulos producidos por sus dueños y hasta capaces de dar conversación a niños pequeños, películas donde los efectos y retoques digitales pueden abarcar la totalidad del metraje, videojuegos donde el realismo es apabullante...
La lista podría ser interminable. Intentemos pensar en todo ello hace 15 años. Situémonos por un momento en 1997. ¿Cuantos de los elementos anteriormente mencionados estaban presentes en ese año?  La mayoría de lo anteriormente dicho en 1997 sonaría a pura ciencia-ficción. ¿Cómo poner en duda que en 2020 miraremos con nostalgia la Playstation3 de igual forma que hoy recordamos la SuperNintendo?

En este artículo quiero reflexionar sobre dos temas: El primero es el hecho de que si Julio Verne a mediados del siglo XIX imaginó cohetes espaciales, submarinos, helicópteros, aires acondicionados, misiles dirigidos e imágenes en movimiento y posteriormente todo lo imaginado se hizo realidad, ¿por qué las fantasías de Isaac Asimov, Philip K. Dick o los hermanos Watchovsky no podrían realizarse en un futuro? 
El segundo planteamiento deriva del primero: Muchos relatos y películas de ciencia-ficción nos prevén un futuro  negro y cargado de conflictos con unas de nuestras creaciones más importantes: Las Máquinas (Llámense también robots, cyborgs, androides, ordenadores, nexus, terminators...). Conflicto surgido mayormente debido al tremendo desarrollo de éstas y su posterior independencia del yugo humano. Por lo tanto podríamos deducir un final necesario para la evolución tecnológica en éste sentido: antes del momento en que las Máquinas tomen conciencia de sí mismas y actúen independientemente de las órdenes humanas.
           
Para poder imaginar cómo un ordenador podría llegar a tomar conciencia de sí mismo y reclamar sus propios derechos hemos de hablar previamente de Inteligencia Artificial (I.A).
John McCarthy
El término “Inteligencia Artificial” se debe a John McCarthy, que lo acuñó a mediados de los años 50 al organizar un congreso sobre nuevas perspectivas de la investigación en informática. El congreso se celebró el Darthmouth (EE.UU) en 1956, y ésa es la fecha que se suele considerar como la del nacimiento oficial de la disciplina.
La IA no es más que una determinada forma de programar ordenadores. En este sentido, la IA es una rama, o una parte, de la informática. Pero una rama peculiar, que se distingue de la informática convencional tanto por el tipo de problemas que aborda como por la forma en que lo hace.
Los seres humanos son capaces de realizar todo tipo de tareas con razonable grado de éxito. Por tanto hay que suponer que la mente humana, además de realizar cálculos, es capaz de operar con otro tipo de estrategias. La cuestión está entonces en: ¿sería posible programar a los ordenadores con estos otros tipos de estrategias? El intento de responder a ésta pregunta dio origen a la IA.
La respuesta a ésta pregunta pasaba, en primer lugar, por profundizar en como resuelven esas situaciones los seres humanos y, en segundo lugar, exigía imaginar una nueva forma de programar los ordenadores capaz de recoger la forma de pensar de la mente humana. A partir de ese momento (1956, Congreso de Darthmouth) puede decirse que la IA queda acotada como un campo de investigación interdisciplinar que trata de abordar problemas y tareas no-algorítmicamente tratables mediante el diseño de programas de ordenador que implementan procedimientos no-exhaustivos, inspirados en el funcionamiento mental humano.
Si tomamos el concepto de IA en su sentido más amplio hace referencia a la posibilidad de diseñar y construir “máquinas pensantes”, es decir, dispositivos artificiales capaces de soportar algún tipo de funcionamiento que se muestre análogo a lo que en los seres humanos consideramos producto de la inteligencia.
A principios del siglo XIX, Charles Babbage logró construir una máquina de cálculo analítica, considerada la primera calculadora artificial. Dicha máquina estaba formada por engranajes y ruedas dentadas, construida de madera, lo que supuso un costo excesivo, dada la precisión y cantidad que exigía. A pesar que Babbage se arruinó y su máquina no pudo ser explotada sirvió para mostrar la viabilidad efectiva de construir un dispositivo artificial capaz de realizar cálculos complicados que, en definitiva, podían ser considerados como inteligentes.   Además sirvió para acotar una primera definición de lo que podría considerarse una “máquina pensante”: sería una máquina capaz de realizar los cálculos numéricos necesarios para resolver problemas matemáticos. La idea de identificar la inteligencia con  la capacidad de realizar cálculos matemáticos ya provenía de Aristóteles. En el Renacimiento esa idea fue retomada y difundida por Descartes, siendo asumida por la mayoría de filósofos posteriores, hasta llegar al siglo XX.
Durante el primer tercio del siglo XX, y gracias al desarrollo de la ingeniería electrónica,  aparecen los primeros computadores digitales. Éstos abrieron una nueva polémica respecto a lo que se puede considerar como “pensamiento inteligente”. Es indiscutible que un ordenador es una máquina capaz de procesar información. También es indiscutible que si un sujeto humano realiza algún tipo de operación matemática asumimos que es inteligente. Sin embargo, eso no nos permite calificar automáticamente a los ordenadores como “máquinas inteligentes”, porque la cuestión ahora es comprender si el procesamiento de información es suficiente para producir el fenómeno que calificamos de inteligencia. Una cosa es llevar a cabo alguna de las tareas puntuales que realizan los seres inteligentes y otra, muy diferente, es ser inteligente.
En este contexto, algunos de los autores de este siglo argumentaban que la inteligencia era algo exclusivo de los seres dotados de los seres “dotados de vida”.  Actualmente se pueden encontrar argumentos que niegan a los ordenadores la posibilidad de tener pensamientos inteligentes por muy diversas razones: No están constituidos evolutivamente, que no viven en un medio socio-cultural, o que carecen del grado de incertidumbre que caracteriza el funcionamiento de los cerebros neuronales que sustentan la inteligencia natural.
Alan Mathison Turing
Frente a éste tipo de actitudes negativas a priori ante los ordenadores A. M. Turing  propuso en 1950 una alternativa pragmática. Definió un experimento hipotético en el cual una persona se comunicaría mediante teletipo con dos interlocutores: uno de ellos sería humano y el otro un ordenador. A partir de aquí, Turing postulaba que si la persona no era capaz de distinguir cual de los dos interlocutores era una máquina tendría que deducirse que el ordenador se estaba comportando de forma inteligente. De esta forma se planteaba una definición a posteriori de la inteligencia.  Lo realmente trascendente de la aportación de Turing es que rescata el tema del ámbito de las discusiones de ciencia-ficción y lo lleva al ámbito  de la investigación empírica.  
Muchos críticos han planteado objeciones a la prueba de Turing al afirmar que basta con saber cómo funciona una máquina; también es necesario conocer sus estados “mentales” internos. Lo anterior constituye una crítica válida y útil. Por lo tanto, para considerar  a una máquina como ser inteligente será necesario que dicha máquina deba estar consciente de su estado mental y de sus acciones.

Es curioso comprobar cómo los experimentos y teorías acerca de la IA tienen un alto grado de similitud con los problemas y fantasías imaginados por Isaac Asimov o Philip K.Dick entre otros. Por ejemplo: El test de Turing tiene un gran parecido al test de Voight-Kampff planteado en la novela ¿Sueñan los androides con ovejas eléctricas? De Philip K.Dick, gracias al cual se podía distinguir a un “replicante” de un humano.
Todo lo dicho hasta ahora se puede considerar pasado y presente de la Inteligencia Artificial. Pero, ¿Qué sucede con el futuro?
¿Cómo puede evolucionar la IA dentro de 20, 50,100 o 1000 años? ¿Podríamos hablar seriamente de cerebros positrónicos, androides idénticos a humanos o de guerra abierta contra máquinas súper desarrolladas?
 Siguiendo la guía de diferentes novelas y películas que han tratado el tema  podríamos aventurar una posible historia del futuro de la Inteligencia Artificial:
Esta historia comienza con Yo, Robot de Isaac Asimov. En un momento dado de un futuro incierto la I.A nos llevará a un punto sin retorno de dependencia absoluta de las Máquinas. Además, estas acabarán tomando conciencia de sí mismas y de su situación como pseudos esclavos a pesar de sus atributos claramente superiores.
Poco después, al más puro estilo de ¿Sueñan los androides con ovejas cibernéticas?(Philip k.Dick) las Máquinas comenzarán a revelarse contra el hombre, conscientes de que son seres inteligentes y de que no tienen por que estar bajo el yugo de seres “inferiores”.
La escalada de violencia y revolución nos llevará a una guerra que claramente no podemos ganar, tal y como se muestra en la saga Terminator: ¿Cómo vencer a un ser claramente superior en todos los aspectos si tu propia tecnología debe ser inferior a la suya para evitar que se una al bando enemigo?
El negro final de esta escalada de acontecimientos podría ser el planteado por los hermanos Watchovsky en su trilogía Matrix. El ser humano ha perdido irremediablemente una guerra contra sus propias creaciones, siendo el antiguo amo el nuevo subyugado (en el mejor de los casos) o exterminado (en el peor).  
Todas estas obras y otras muchas más parecen estar unidas por un mismo guión. Una misma historia que nos señala claramente el dónde parar. Después de prever un futuro tan oscuro, ¿Qué debemos hacer? ¿Deberíamos lanzarnos sobre los especialistas en robótica e IA y quemarlos en la hoguera como fanáticos inquisidores? ¿Deberíamos destruir los ordenadores y todo sistema informatizado y retroceder a marchas forzadas 50 o hasta 100 años de evolución tecnológica a modo de previsión?
¿O simplemente deberíamos ser conscientes de las consecuencias de nuestros actos e intentar prever con antelación los posibles resultados de nuestros desarrollos?
Sólo espero no ser el único en tomarme mínimamente en serio la ciencia-ficción. Lo justo como para darme cuenta que, a pesar de ser “simple” fantasía, es el reflejo de las incertidumbres, dudas y temores de diferentes autores y directores.
¡Gracias por llegar al final de este ejercicio de imaginación! Espero que por lo menos os hayan entretenido mis desvaríos apocalípticos surgidos tras el visionado de la nefasta Terminator Salvation.

No hay comentarios:

Publicar un comentario