Marco Trujillo

«Cuando los ordenadores tomen el control, puede que no lo recuperemos. Sobreviviremos según su capricho. Con suerte, decidirán mantenernos como mascotas». Esta frase célebre de Minsky, uno de los padres de la inteligencia artificial, para la revista Life en 1970, sentó las bases de películas como Blade Runner, Matrix o Yo, robot. Todas estas películas establecen una unión entre la realidad distópica en la que se desarrollan y el crecimiento exponencial de una inteligencia artificial que es capaz de percibirse a sí misma. (“No. Pero creo que mi padre me hizo con un fin. Todos tenemos un fin. ¿No lo cree, detective?”  Yo, robot, 2004.)

Para que una IA sea capaz de percibirse a sí misma, el término consciencia tiene que hacer aparición. La consciencia se ha tratado de explicar durante cientos de años desde diversos ámbitos de la filosofía y la psicología, pero al encontrar una definición, siempre, surgen otras preguntas que hacen que sea imposible encontrar una acepción inamovible. La respuesta menos compleja afirma que la consciencia se conforma cuando se tiene conocimiento de la existencia de uno mismo, pero qué entendemos por existencia o por uno mismo, he aquí la dificultad a la que me refería antes.

Aun así, la revista Science revelaba en 2017 un estudio que trataba de explicar cómo funciona la consciencia humana para buscar su introducción en las máquinas. Stanislas Dehaene, Hakwan Lau y Sid Kouider, sus autores, segmentaron la consciencia humana en tres niveles distintos. El primero de estos,«C0», se trataría de todo aquello que hacemos de una manera inconsciente, como el reconocer caras o medir ciertas distancias. El segundo nivel es el C1, donde se encuentran las respuestas específicas que damos a determinados estímulos del exterior, por ejemplo, cargar la batería de nuestro móvil cuando vemos que no tenemos. En último lugar, C2, también conocido como metacognición, es la categoría donde se alcanzaría la autoconsciencia, donde sabríamos lo que estamos haciendo.

Por suerte o por desgracia, la inteligencia artificial no es capaz, todavía, de alcanzar el nivel último nivel de consciencia. La vez que más cerca se ha estado de la autoconsciencia de un robot fue en 2015, en el Instituto Politécnico Rensselaer, en Estados Unidos. A dos robots Nao se les hizo creer que se les había dado una pastilla con la que no podrían hablar -realmente los silenciaron los investigadores- y a otro una pastilla con efecto satisfactorio. Después, se les preguntó qué tipo de pastilla se les había dado, a lo que uno de ellos respondió: “No lo sé”. En ese mismo instante, el robot levantó un brazo y afirmó que ahora sí sabía quién no había consumido la pastilla silenciadora. Los investigadores aseguraron que esta IA fue capaz de reconocerse a sí misma y entender que era diferente a las otras.

Para que una inteligencia artificial sea capaz de entenderse como una misma, se debe dar la ‘singularidad’, concepto que daría para otro artículo distinto. Supongamos que encontramos la singularidad, emergerían preguntas no solo metafísicas o biológicas, sino también éticas.

Tenemos que entender mejor nuestro cerebro y establecer definiciones claras que permitan introducir la consciencia en aquello que deseemos, y, al ritmo de avance tecnológico y de conocimiento que llevamos, no tardaremos mucho.

También podrás encontrar otros artículos como este en: https://trujillolabradorma.wixsite.com/marcotrujillo

Recursos consultados:

Moral Reasoning & Decision-Making: ONR: MURI/Moral Dilemmas | Rensselaer Artificial Intelligence and Reasoning Laboratory. Rair.cogsci.rpi.edu. (2020). Retrieved 10 October 2020, from https://rair.cogsci.rpi.edu/projects/muri/.

Dehaene, S., Lau, H., & Kouide, S. (2020). What is consciousness, and could machines have it?. Science. Retrieved 27 October 2017, from https://science.sciencemag.org/content/358/6362/486.full.