¿Y si las inteligencias artificiales ya estuvieran surgiendo?
“Para un botmaster capacitado, todo el mundo es un Test de Turing."
Soy aficionado a la ciencia ficción, pero debo confesar que nunca había leido una historia de Cory Doctorow,
creo que en este campo me he quedado atrás, y no pasé de Dan Simmons.
Aunque Doctorow no es un total desconocido para mí, no he leido mucho de él en realidad, algo sé de su aporte al debate sobre propiedad intelectual, su participación en xkcd (sobretodo en la 239), pero la principal referencia para mi de este autor es su rol de editor y creador de Boing Boing, un blog, que es tan entretenido, que llega a abrumar.
Todo esto a propósito de que en la última edición de la Communications of ACM publican un relato de Doctorow bastante bueno, que me gustó tanto que pienso descargar algunas novelas de este autor para leerlas.
El relato que les menciono se llama “Pester Power”, y es una bonita especulación sobre el origen del spam (*).
Imaginen por un momento que todo el SPAM que reciben en realidad son pruebas que realizan “proto inteligencias artificiales”, para aprender y retroalimentarse, con el fin de superar el Test de Turing y llegar a pasar por inteligencias humanas.
¿Pueden las máquinas pensar?
El Test de Turing fue propuesto por el famoso matemático y padre la computación, Alan Turing en un artículo titulado Computing machinery and intelligence publicado en la revista Mind en 1950 (pueden leerlo en español en una interesante compilación llamada Controversia Sobre Mentes y Máquinas)
En ese artículo el autor considera la cuestión sobre la capacidad de máquinas para pensar. Como no es posible definir las palabras “máquina” y “pensar” en una forma que sea satisfactoria para todo el mundo, Turing sugiere cambiar la pregunta por otra relacionada, que sea ex presable en términos menos ambiguos.
En vez de tratar de determinar si una máquina piensa, Turing sugiere que nos preguntemos si una máquina es capaz de ganar el llamado Juego de Imitación. En este juego participan tres entidades en habitaciones aisladas, una máquina (computador), un humano, y un juez (también humano). El juez puede conversar con el humano y la máquina a través de un terminal.
Ambos, el computador y la persona tratarán de convencer al juez de que ellos son realmente seres humanos. Si el juez no puede decidir consistentemente cual es cual, entonces decimos que la máquina ha ganado el juego.
En el fondo la pregunta se ha cambiado por esta otra: “¿pueden las máquinas hacer lo que nosotros como entidades pensantes, podemos hacer?”
No voy a meterme en la discusión filosófica sobre esta pregunta, hay un pequeño y excelente libro, una “novela de divulgación”, en realidad, que explora este tema en forma bastante entretenida, se trata de El Quinteto de Cambridge, de John L. Casti (edición en inglés en Amazon
Pues bien, volvamos al relato de Doctorow, en este una hacker es detenida porque se la relaciona con la creación y uso de una botnet para enviar spam, es decir, una red de miles de computadores infectados con software troyano que sirve para enviar correos basura.
La protagonista del cuento se burla de sus interrogadores, por pensar que ella solo usa la botnet para enviar correo spam:
“¿Saben lo que es barato en el siglo 21? El tiempo de computación. ¿Saben lo que es caro? El juicio humano. Ambos no son intercambiables. Los humanos son buenos entendiendo cosas, los computadores son buenos contando cosas, pero los humanos apestan al contar, y os computadores apestan al entender.”
“¿Conocen los algoritmos genéticos? Tomen cualquier problema y generen 10 billones de pogramas de computador al azar y póngalos a resolver el problema. Tomen el 10% de los que lo hacen mejor, usen variantes al azar de ellos y repítanlos otras 10 billones de veces. Repítanlo 10 billones de veces más, y vuelvan en un día o dos, y descubrirán que el computador ha evolucionado una extraña y bizarra respuesta que a ningún humano jamás se le habría ocurrido.”
Esto funciona bien si tenemos una manera cuantitativa de medir el éxito de estos programas. La cual es la razón básica por la que aún no hay una inteligencia artificial:
“Ningún humano va a lograr escribir el código para una Inteligencia Artificial (IA). La inteligencia es una propiedad emergente de factores evolutivos, no de la planificación central. Es anarquía, no estalinismo. ¿Lo entienden?”
¿Qué tal si pudieras hacer a que la gente probara tus IA candidatas día y noche, sin pagarles, o darles a escoger? ¿Qué pasaría si cada vez que abres tu casilla de correo, entras en un salón de chat, o a un foro en internet, te llegan mensajes generados por agentes de software que están tratando de engañarte haciéndose pasar por humanos?
¿Y si pudieras seguir los hilos de las conversaciones hasta aquellas que duran más tiempo, o de los emails que
pasan los filtros anti spam?
Imagina que eliges los mejores agentes de software para generar la nueva generación de inteligencias artificiales, y las vuelves a probar contra los mejores jueces de inteligencia: nosotros.
¿Qué tal si pudieras convertir al mundo entero en un gran Test de Turing que para nuestro sucesor intelectual?
¿Y si, además, esa idea se le ocurriera a muchos otros hackers, con redes de computadores esclavos (botnets)?
Esa es la premisa del cuento.
Pero, y ¿si no fuera ficción? Recientemente Kevin Kelly especula sobre el surgimiento de un superorganismo. Al parecer existen evidencias inquietantes, paquetes de red no identificables, que podrían ser rastros de una inteligencia que estaría surgiendo desde la red.
Una cosa es cierta, hay muchos botmasters por ahí, hackers que tienen a su disposición el tiempo de cómputo de miles y miles de computadores infectados, más de uno lo podría estar usando para algo más interesante que mandar emails ofreciendo viagra, ¿no creen ustedes?
(*) Lamentablemente, a pesar de las ideas de Cory Doctorow, el relato está protegido con copy right por la ACM, y sólo accesible a los suscriptores de esa revista, pero supongo que algo se podrá hacer.