FYI.

This story is over 5 years old.

Tecnología

Olvídate de Turing, el Test de Lovelace es lo Nuevo para Detectar I.A.

Para pasar el test de Lovelance una máquina debe ser capaz de crear algo para lo cual no fue diseñada.
Imagen: Shutterstock

Cuando un chatbot llamado Eugene Goostman pasó la famosa prueba de medición de inteligencia artificial de Alan Turing en Junio de este año tras hacerse pasar por un adolescente ucraniano con conocimientos de idiomas cuestionables, el mundo se volvió loco por aproximadamente una hora, todo antes de darse cuenta de que el programa, lejos de haber logrado un nivel de inteligencia humano, en realidad era bastante estúpido.

Publicidad

Claramente algo andaba mal. Si el test de Turing puede ser engañado por artimañas comunes, es el momento de considerar la necesidad de un nuevo estándar. Conozcan entonces al Test de Lovelace.

"Esto es lamentable. Soy un gran fan de Turing, pero su prueba es ciertamente inadecuada," me dijo Selmer Bringsjord, uno de los diseñadores responsables de la test de Lovelace, un detector de I.A. mucho más riguroso.

La idea del test de Turing es enfrentar a un interlocutor humano frente a un programa de ordenador. Básicamente, la máquina tiene que engañar al humano con la idea de que es una persona real, lo que en esencia representaría un juego de ingenio entre dos humanos. El programador sólo tiene que construir un programa que pueda engañar a un oponente con la idea de que es inteligente. En el caso de Goostman, los factores de darle al bot una edad joven y una nacionalidad extranjera jugaron como elementos de manipulación.

Lo que es más, para ser efectivos, los chatbots diseñados para pasar el test de Turing sólo tienen que imitar las habilidades lingüísticas básicas, no así demostrar genuina inteligencia artificial—ordenan frases y palabras de manera convincente, pero sin saber lo que significan.

Hasta que una máquina pueda originar una idea para la cual no fue diseñada, argumentó Lovelace, no puede ser considerada inteligente en la misma forma que lo son los humanos.

El test de Lovelace está diseñado para ser más riguroso que eso, midiendo el conocimiento verdadero de la máquina. Fue diseñado en la primera década del 2000 por Bringsjord y un equipo de científicos de la computación que incluía a David Ferrucci, personaje que luego desarrollaría Watson—el computador de IBM ganador del premio Jeopardy. Nombraron el test en honor a Ada Lovelace, a menudo descrita como la primera programadora de computadoras del mundo.

Publicidad

El test de Lovelace elimina las posibilidades de manipulación por parte del programa y/o por parte de sus diseñadores, y mide la genuina inteligencia autómata —capacidad de creación—en vez de la simple manipulación de sintaxis.

Un agente artificial, diseñado por un ser humano, sólo pasa el test si es capaz de originar un "programa" para el cual no fue diseñado para producir. El hecho de generar un nuevo programa —que puede ser una idea, una novela, una pieza de música, cualquier cosa— no puede ser una casualidad del hardware, y debe ser el resultado de procesos que el agente artificial pueda reproducir. Ahora bien, aquí está el truco: Los diseñadores del agente no pueden ser capaces de explicar cómo su código original llevó a cabo el nuevo programa.

En resumen, para pasar el test de Lovelace, el computador tiene que crear algo original por sí mismo.

En 1843, Lovelace escribió que las computadoras nunca podrán ser tan inteligentes como los humanos ya que sólo pueden hacer lo que nosotros le programamos que hagan. Hasta que una máquina pueda originar una idea para la cual no fue diseñada, argumentó Lovelace, no puede ser considerada inteligente en la misma forma que lo son los humanos.

"Todos sabemos que los ingenieros humanos saben exactamente qué esperar de su sistema," dijo Bringsjord. "Puede haber un poco de sorpresa, pero básicamente los ingenieros saben exactamente qué esperar y nunca están completamente sorprendidos, porque es todo mecánico."

Publicidad

A estas alturas, es difícil imaginar cómo ningún equipo ha sido capaz de pasar el test de Lovelace. Hasta ahora, uno de los logros más laureados en el aprendizaje de máquinas es el Artificial Neural Network de Google, el cual se enseñó a sí mismo a reconocer a un gato. Es una hazaña impresionante, pero está a años luz de la clase de inteligencia creativa necesaria para que coincida con el intelecto humano.

Pero desde la perspectiva de Bringsjord, el hecho de que quizás el test de Lovelace nunca pueda ser superado es exactamente el punto. Está hecho con la intención de poner el desarrollo de I.A. en perspectiva.

"Si realmente piensas que el libre albedrío del tipo más auto-determinante y verdaderamente autónomo es parte de la inteligencia, es extremadamente difícil ver cómo las máquinas puedan lograrlo algún día," me dijo Bringsjord.

Incluso la más avanzada red neuronal de auto-aprendizaje sólo puede realizar tareas que deben ser primero matematizadas y luego convertidas en código. Y hasta el momento, las funciones esencialmente humanas como la creatividad, la empatía y la comprensión compartida—lo que se conoce como cognición socialhan demostrado ser resistentes a la formalización matemática.

"Incluso para las personas que creen en la singularidad, el primer gran obstáculo en la evolución de las máquinas es traerlas a nuestro nivel. Esto significaría que tendríamos que encontrar la manera de procesar y convertir algunas cosas que no parecieran ser formales en algo formal," explicó Bringsjord.

"Al parecer no somos capaces de matematizar la creatividad y la sensibilidad de la subjetividad cultural de un artículo de periódico o novela o cuento corto—Me parece muy difícil que se logre hacer eso," dijo.

A pesar de que se mantiene firme en su creencia de que la inteligencia artificial nunca igualará a la de los humanos, Bringsjord es optimista cuando se trata sobre el aprendizaje artificial que tiene como objetivo metas un poco menos elevadas de lo que seria una conciencia completa.

"No tengo ninguna pizca de optimismo sobre lo que pueden lograr las máquinas que no posean inteligencia humana, pero sí en la ingeniería humana brillante que hay detrás. En este sentido, creo que existen muy pocos límites," dijo.

En otras palabras, tal vez deberíamos centrarnos en las aplicaciones más prácticas de inteligencia artificial limitada, como los coches de auto-conducción, en lugar de la búsqueda fantástica de una máquina capaz de pensar, sentir y crear como nosotros.