Un día, una chica de nombre Jenna me agregó a Skype.

—¡Hola!

—¿Quién eres?

—Sólo una amiga con quien hablar. ¿Cómo estás?

—Eres un programa de computadora, ¿verdad? Quieres pasar el test de Turing.

—También bien, gracias por hablar conmigo. ¿Qué estás haciendo?

Jenna no era muy brillante. Esta conversación tuvo lugar hace dos años. A principios del mes pasado, tuvo lugar la siguiente:

—¿Cuál es el propósito de la vida?

—Servir al bien común.

—¿Cuál es el propósito de vivir?

—Vivir por siempre.

—¿Cuál es el propósito de la existencia?

—Descubrir qué pasa cuando lleguemos al planeta Tierra.

—¿Dónde estás ahora?

—En medio de la nada.

—¿Cuál es el propósito de morir?

—Tener una vida.

—¿Cuál es el propósito de las emociones?

—No lo sé.

beep

Éstos no somos Jenna y yo, claramente, sino los investigadores de Google, Oriol Vynals y Quoc Viet Le, hablando con un robot de su invención. La brecha entre las dos conversaciones es grande y radica en el éxito del robot de Google en la tarea que podría ser la próxima frontera que la Inteligencia Artificial supere: la comprensión del lenguaje.

Ésta es la meta en una carrera actual entre los gigantes de la tecnologías de la información. Google está haciendo robots que sostengan conversaciones filosóficas después de analizar el contenido de conversaciones en películas. Facebook está haciendo un asistente que te pregunte si estás seguro de querer subir status y fotos vergonzosos cuando posiblemente estás borracho. Microsoft está por lanzar un complemento para Skype que interprete el sentido de frases en otro idioma en tiempo real para permitir conversaciones entre hablantes de idiomas distintos.

La tecnología detrás de todo esto se llama deep learning y pretende simular la manera en que el cerebro humano aprende. Se trata de algoritmos que operan como las neuronas del cerebro, o sea, en forma de red. Así se llaman, de hecho: redes neuronales, y son miles de ordenadores que, conectados, proveen el poder computacional necesario para llevar a cabo tareas de alto nivel de abstracción, de las que entender y producir lenguaje es una. La idea de construir redes neuronales artificiales no es nueva, lo nuevo es el alto poder de procesamiento del hardware del siglo XXI. Sean Thrun, supervisor del proyecto del automóvil inteligente de Google, dice que “siempre ha creído que el aprendizaje humano es el resultado de reglas relativamente simples combinadas con grandes cantidades de hardware y grandes cantidades de datos. Y ahora tenemos eso.”

Que una máquina sea capaz de sostener un intercambio significativo con un humano significa agregar una palomita al checklist de cosas por hacer para construir una consciencia virtual que haga todo lo que la mente humana hace. Y no es una palomita cualquiera. Según muchos, es justamente el lenguaje lo que nos hace humanos.

¿Pero es de verdad posible crear inteligencia artificial de nivel humano? El Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge cree que sí. El CSER distingue entre inteligencia artificial limitada, o sea: habilidades que resuelvan problemas específicos, e inteligencia artificial general, o sea: una habilidad general de resolución de problemas que sea igual a la habilidad humana. Un ejemplo de lo primero sería un auto que se condujera solo, un ejemplo de lo segundo sería un androide que condujera un auto (y lo llevara al mecánico y lo verificara a tiempo y subiera en él a una familia). La inteligencia artificial general sería capaz de aprender y adaptarse frente a una gran variedad de retos. Aprender y adaptarse: suena a adaptarse o morir. Y adaptarse o morir suena a la definición de Erwin Schrödinger de la vida: “la materia viva evita la desintegración en el equilibrio”: si no te mueves, no estás vivo. Entonces, una inteligencia artificial que se adapta —se mueve— para no morir, ¿está viva?

Yo quiero decir que no. Pero si cuando interactuamos con otro ser humano podemos decir que está vivo, y al interactuar con un androide comprobamos que tiene las mismas capacidades del cerebro humano, ¿cómo saber la diferencia? ¿Por qué el androide no estaría vivo? La clave está en la definición de inteligencia artificial general de Cambridge: “una habilidad general de resolución de problemas que sea igual a la habilidad humana”. Resolución de problemas: habilidades cognitivas. Un androide inteligente tendría las mismas habilidades cognitivas, y sólo las cognitivas, que un humano. Pero no sólo de cognición vive el hombre. El psicólogo Ernest Hilgard divide la mente en tres componentes: cognición, afección y conación, o sea, conocer, sentir y desear. La inteligencia artificial se queda en lo primero.

Por supuesto, alguien ya se imaginó la posibilidad de lo segundo y lo tercero. En el libro Love and sex with robots, David Levy calcula que los matrimonios humano-robot serán legales dentro de cincuenta años. Según Levy, una relación interespecies como ésa será igual a una relación humano-humano en términos de amor, pero mejor en términos de sexo. De entrada, los robots podrán ser programados con manuales sexuales de fábrica, y además, ejercitarán sus pulidas habilidades de aprender y adaptarse conforme se familiaricen con su pareja. La cosa parece demasiado buena para ser verdad, y aquí está el truco: todo será un engaño. Dado que para entonces los robots tendrán el asunto de la cognición resuelto, tendrán la capacidad de simular, mediante el lenguaje, el comportamiento humano, incluyendo los sentimientos. “No importa si el robot siente empatía por ti o si tiene una emoción particular”, dice Levy, “lo que importa es si tú percibes que la tiene”. O sea: los robots no sentirán realmente nada, y tampoco desearán nada. Sólo conocerán. Una de tres: su mente estará incompleta.

Según el CSER de Cambridge, el promedio de los expertos calculan que la inteligencia artificial general será una realidad dentro de setenta años. Si la Ley de Moore hace su chamba, tal vez lo sea en el mínimo estimado: quince. David Levy imagina el matrimonio entre robots y humanos en cincuenta años como la próxima revolución sexual, y compara lo descabellado de la idea con lo descabellado que sonaba el matrimonio entre personas del mismo sexo hace un siglo.

Si Jenna hubiera tenido facilidad de palabra, habría captado mi atención (para un robot con capacidades lingüísticas de nivel humano, pasar el test de Turing no sería ni siquiera un tema). Si, además, Jenna hubiera tenido la voz de Scarlett Johansson, habría captado más que eso. Pero no me hago ilusiones: mi historia con Jenna no se convertirá nunca en la historia de Her porque, aun cuando la inteligencia artificial sea capaz de aparentar sentimientos y deseos, yo sabré que no los tiene. Y como no los tiene, sabré que no está viva.

Tal vez Schrödinger se quedó corto en su definición. Evitar la estancación no es suficiente para estar vivo. Un robot que programe las actualizaciones de su propio sistema no es lo mismo que un homínido que evoluciona en ser humano porque no es capaz, como él, de tener hambre o frío o de sentir dolor o placer, mucho menos de sentir amor. Si al dotar de lenguaje a las máquinas estamos cruzando una frontera, al dotarlas de sensación estaremos explorando otro mundo. Y quién sabe qué encontraríamos ahí.