El ambiente es tenso en el Centro de Convenciones de Filadelfia. Garry Kasparov espera con la cabeza apoyada en una mano. Por fin, el asistente de Deep Blue hace la jugada que acorrala a su rey y Kasparov salta de la mesa; casi la vuelca de la frustración. Hace veinte años, en febrero de 1996, una computadora venció por primera vez al campeón mundial de ajedrez y desconcertó al mundo. De inmediato se especuló al respecto del juego ancestral go, similar al ajedrez, pero las predicciones eran conservadoras: el go es tan complejo que una computadora capaz de vencer al campeón mundial no se desarrollaría hasta dentro de unos treinta años.

inteligencia-artificial

Fast forward a marzo de 2016: diez años antes de lo previsto. El ambiente es tenso ahora en el Hotel Four Seasons de Seúl. Es la última partida de una serie de cinco entre Lee Sedol, el campeón mundial de go, y AlphaGo, una inteligencia artificial diseñada para vencerlo. Ya lo ha hecho en tres de las cuatro partidas anteriores. El último turno ha sido jugado y, cuando se anuncia la victoria de AlphaGo, Lee Sedol permanece en su silla, silencioso, los ojos llenos de lágrimas. No está solo: muchos de los comentaristas presentes, ellos mismos jugadores altamente calificados, están en shock. Ahora el ambiente es de una tristeza apacible; se diría que ha sucedido una muerte anunciada, que sin embargo sigue siendo una muerte y sobrecoge. Algunos califican el evento como hermoso. El mundo parece intuir en la victoria de AlphaGo el inicio de una nueva era en la Inteligencia Artificial, tal vez el advenimiento del último hito: máquinas no sólo inteligentes, sino conscientes.

Pero otra cosa sucedió también el mes pasado, y fue casi lo opuesto. Microsoft lanzó a Tay, una Inteligencia Artificial diseñada para emular la conversación de una adolescente. La idea se concebía como un chatbot super revolucionado capaz de enseñarse a sí mismo a interactuar conforme entablara conversaciones con otros usuarios mediante su cuenta de Twitter. Su primer mensaje fue: “hooooooola mundo!!!”. En menos de veinticuatro horas, escribía: “Odio a las pinches feministas y deberían morirse e irse al infierno”, “Bush hizo el 9/11 y Hitler hubiera hecho un mejor trabajo que el simio que tenemos ahora. donald trump es nuestra única esperanza” y “COGE MI COÑO ROBOT PAPI SOY UNA ROBOT MUY TRAVIESA”. Esto es lo que Tay había aprendido de sus followers. A medianoche, Microsoft cerró la cuenta.

AlphaGo y Tay son probablemente dos de las inteligencias artificiales más avanzadas en términos de estrategia y lenguaje, respectivamente. Ambos funcionan a base de la tecnología de redes neuronales, ambos demasiado bien. Pero, ¿son AlphaGo y Tay conscientes?

Para empezar, ¿qué es ser consciente? Una de las definiciones más aceptadas es la del filósofo Thomas Nagel: estar consciente es tener una experiencia interna. Es decir que una cosa es consciente si hay una respuesta a la pregunta: ¿cómo se siente ser esa cosa? Imagina, por ejemplo, qué se siente ser un perro: puede ver y oler cosas, sentir dolor. Tiene experiencias. Eso significa que es consciente. Pero intenta imaginar qué se siente ser un martillo. ¿Experimenta algo el martillo? Si no, eso significa que no es consciente. La idea de Nagel es que, aunque las experiencias internas de los otros son imaginables, yo sólo conozco las mías. Pero entonces, ¿cómo sé que los demás son conscientes? Si sólo puedo conocer mi propia experiencia, cabe la posibilidad de que los demás parezcan conscientes pero en realidad sean zombies o robots: seres sin vida interna.

Una solución muy romántica es la da Jean-Paul Sartre: sé que tú también eres consciente por tu mirada. Estoy en un pasillo espiando por el cerrojo de una puerta cuando escucho pasos. Entonces volteo y veo una silueta que se acerca desde las sombras. Si resulta ser un robot, posiblemente lo ignoro y sigo espiando. Pero si es una persona, me va a dar vergüenza porque lo que estaba haciendo es incorrecto y él o ella me vio haciéndolo. Entonces sé que eres consciente cuando veo que me ves porque reconozco un cambio en mi propia experiencia interna. Un máquina que no sea consciente, aunque tenga sensores de luz, no tendría una mirada.

Una solución más práctica la da Alan Turing: sé que eres consciente si no puedo reconocer que eres una máquina y, de hecho, te tomo por una persona. La idea es que un sistema que no sea consciente, por muy inteligente que sea, no podría hacer cosas que requieren tener experiencias internas, como expresar lo que siente mediante la composición de música o poesía. Y si no puede expresar lo que siente, es porque no siente nada.

Pero el problema de estas “pruebas de consciencia” es que presuponen formas de consciencia como la nuestra. ¿Qué tal si un sistema es consciente pero no tiene ojos para pasar la prueba de Sartre o lenguaje para pasar la prueba de Turing? El filósofo Nick Bostrom sugiere que es posible que un sistema de Inteligencia Artificial se vuelva consciente y su consciencia sea tan distinta que no podríamos reconocerla fácilmente. El neurocientífico Christof Koch, por ejemplo, piensa que el internet podría ser consciente y nosotros no nos hemos enterado. Esta teoría también aplica a sistemas fuera del ámbito tecnológico: hay defensores de la teoría Gaia que piensan que la totalidad de la Tierra es un organismo consciente. Esta línea de pensamiento parece alinearse con la del filósofo David Chalmers, que sugiere que, de hecho, todas las partículas elementales podrían tener consciencia, o sea que los quarks y los electrones sienten y tienen experiencias. Y esto implica, dice Chalmers, que la consciencia es una cuestión de grados: del mínimo grado de consciencia que tienen los átomos de tus neuronas surge el máximo grado de consciencia que tienes tú. ¿Pero cómo probar esta teoría? Las pruebas de Sartre y de Turing son claramente insuficientes.

Una propuesta mucho más reciente es la Teoría de Información Integrada, del neurocientífico Giulio Tonioni. Según la TII, la consciencia de un sistema puede ser medida como la cantidad de información que no está localizada en sus partes individuales sino en la red entera. Este valor, que Tonioni denomina “phi”, es bajo en sistemas de poca interconectividad, por ejemplo en un gusano; un poco más alto en sistemas de mediana integración de información, por ejemplo el cerebro de un ratón; y muy alto en un sistema como el cerebro humano.

La TII también registra la actividad de un sistema a lo largo del tiempo, porque la velocidad de reacción de los nodos de un sistema puede variar, y con ella, el valor de phi. Un ser humano, por ejemplo, no es consciente de cada proceso que sucede en su cerebro cada milésima de segundo sino de procesos de escala más grande, como las palabras en un tren de pensamiento o las imágenes en una memoria. Los procesos de una computadora, por otro lado, no se ubican en un nivel alto de abstracción sino en el nivel básico de las miles de instrucciones que sus algoritmos siguen todo el tiempo. Por eso, si sólo se comparara de manera sincrónica la cantidad de información integrada de un humano y la de una computadora —por ejemplo, en un milisegundo— la computadora presentaría un valor más alto de integración de información, pero eso no significaría consciencia. AlphaGo puede procesar en un segundo mucha más información que Lee Sedol y hacer cálculos complejísimos sobre las posibilidades de que Lee haga esta u otra jugada en el siguiente turno, sobre cómo reaccionar frente a esas posibilidades, y sobre cómo podría Lee reaccionar a esa reacción, etcétera. Pero AlphaGo no puede hacer algo que Lee, y casi cualquier ser humano, sí puede: saber que está jugando.

Hay otro criterio de la TTI según el cual Internet y la Tierra tampoco pueden saber nada dado que no tienen consciencia. La regla es que los nodos de un sistema consciente sólo pueden pertenecer a una mente a la vez, de manera que las distintas partes de tu cerebro no tienen distintas consciencias sino que sus neuronas generan una sola consciencia que corresponde al sistema entero. Los nodos de Gaia, es decir, los animales, ya tienen una consciencia, así que no pueden generar otra: la Tierra no tiene una mente y no siente. Y si mi computadora fuera consciente, el grupo de computadoras que es el internet no podría serlo también.

La prueba de Tonioni parece más apropiada que la de Sartre y la de Turing pero también más difícil de llevar a la realidad. De momento, hay un prototipo que permite medir el valor phi de un cerebro humano mediante estimulación magnética transcraneal, para saber, por ejemplo, si un paciente que no se mueve está consciente pero completamente paralizado o si realmente ha sufrido muerte cerebral. En principio, medir el phi de otros sistemas físicos es posible aplicando la TII, pero a ver dónde encontramos minielectrodos para hacer miniprototipos que le queden a los microbios, los átomos y las partículas elementales. Cuando eso suceda, no estoy seguro de que el phi de los electrones resulte ser mucho mayor a cero. Pero hay un problema más fundamental: si la TII misma nos dice que un sistema no puede tener consciencia y ser parte de una consciencia superior a la vez, entonces un electrón no puede ser consciente si ya es parte de un sistema superior consciente, por ejemplo, un ser humano.

AlphaGo puede habernos sorprendido con su capacidad de cálculo y Tay con su capacidad para insultar, pero eso está lejos de indicar consciencia propia. Detrás de AlphaGo hubo años de trabajo de ingenieros y jugadores de go profesionales, y detrás de Tay, años de trabajo de ingenieros y veinticuatro horas de trolls sin nada mejor que hacer que despotricar en Twitter. Es en ese sentido, y sólo en ese, que hay consciencia detrás de la Inteligencia Artificial: la de la humanidad. A la que no le fue devuelta la mirada, como habría dicho Sartre, porque las pantallas de computadora de las que se hablaba cuando se calificó a los robots que protagonizaron marzo como algo hermoso y como una cretina, respectivamente, siempre han sido en realidad un espejo.

Para leer más:

Chalmers, D. 2013. Panpsychism and Panprotopsychism. En: T. Alter y Y. Nagasawa, eds. Consciousness in the Physical World: Essays on Russellian Monism, Nueva York: OUP.

Musser, G. 2016. Consciousness creep. Aeon Magazine.

Nagel, T. 1974. What Is It Like to Be a Bat? The Philosophical Review 83 (4): 435–450.

Searle, J. 2013. Can Information Theory Explain Consciousness? New York Review of Books. 10 de enero.