Aprovechando el último artículo
que introducía algunos de los grandes logros del gran matemático Alan Turing,
voy a aprovechar para continuar con una más de sus grandes aportaciones que en
este caso, también lleva su nombre: el Test de Turing.
A lo largo de las últimas décadas
la capacidad de computación de datos de los ordenadores ha crecido exponencialmente.
Esto implica que constantemente aparecen nuevos programas capaces de realizar
tareas antes impensables
como indicarnos el camino a casa, diagnosticar que falla en nuestro coche o reconocer una canción que estamos escuchando. Por otro lado, el desarrollo de la neurología desvela que las redes neuronales de nuestro cerebro funcionan computando datos, no exactamente en la forma en que lo hace un ordenador, pero si comparable. Lógicamente esto nos hace plantearnos hasta qué punto sería posible que un día las máquinas pudieran llegar a poseer inteligencias autónomas como la nuestra. El tema no es precisamente nuevo. Los autores de ciencia ficción han fantaseado con máquinas capaces de hablar y comportarse como humanos en tiempos en los que la informática y la robótica estaban todavía en pañales e incluso antes. A mediados del siglo XX muchos esperaban que para inicios del nuevo siglo ya existieran androides capaces de moverse y hablar como humanos. Desgraciadamente para la inteligencia artificial, el cerebro humano ha resultado ser mucho más complejo de lo que cabía esperar y aunque sí parece ser un tipo de procesador de datos, su organización y jerarquía de procesos es increíblemente ingeniosa y eficiente. Parece que vamos a tener que esperar muchos años antes de poder mantener una conversación con un androide sensible y autónomo tipo C3PO.
como indicarnos el camino a casa, diagnosticar que falla en nuestro coche o reconocer una canción que estamos escuchando. Por otro lado, el desarrollo de la neurología desvela que las redes neuronales de nuestro cerebro funcionan computando datos, no exactamente en la forma en que lo hace un ordenador, pero si comparable. Lógicamente esto nos hace plantearnos hasta qué punto sería posible que un día las máquinas pudieran llegar a poseer inteligencias autónomas como la nuestra. El tema no es precisamente nuevo. Los autores de ciencia ficción han fantaseado con máquinas capaces de hablar y comportarse como humanos en tiempos en los que la informática y la robótica estaban todavía en pañales e incluso antes. A mediados del siglo XX muchos esperaban que para inicios del nuevo siglo ya existieran androides capaces de moverse y hablar como humanos. Desgraciadamente para la inteligencia artificial, el cerebro humano ha resultado ser mucho más complejo de lo que cabía esperar y aunque sí parece ser un tipo de procesador de datos, su organización y jerarquía de procesos es increíblemente ingeniosa y eficiente. Parece que vamos a tener que esperar muchos años antes de poder mantener una conversación con un androide sensible y autónomo tipo C3PO.
De hecho, existe una gran
controversia respecto a la posibilidad de que un ordenador pueda llegar a ser
tan inteligente como un humano. Esto conlleva además una serie de interrogantes
problemáticas. ¿Es qué este ser tendría sentimientos? Para ser autónomo necesitaría
plantearse sus propios objetivos y metas ¿Podría una máquina tener deseos y
aspiraciones? Aun así, sería una buena idea estar preparados para el día en que
aparezca un candidato razonable a robot inteligente. Llegará un momento en que
grupo de ingenieros reclamen haber creado un ser tan competente
intelectualmente como un humano. ¿Cómo podríamos probar si este ser es
realmente tan inteligente como uno de nosotros? La respuesta es por supuesto el Test de Turing.
En su famoso paper de 1950,
Turing se preguntaba si las máquinas pueden pensar y como decidir si una
máquina es tan inteligente como un humano. Haciendo gala de su grandeza Turing
divisa un método enormemente simple para resolver este problema. La idea es que
una máquina y un humano mantengan una conversación con alguien que ejerza de
juez para que este pueda distinguir entre los dos. La comunicación se haría
través de un terminal tipo teclado y pantalla, para que la apariencia o el
sonido de la voz no rebelen a la máquina. Si el juez no fuera capaz de decidir cuál
de los interlocutores es el ordenador, significaría
que este es completamente inteligente.
No parece difícil, pero a día de
hoy ningún tipo de máquina o software ha conseguido pasar la prueba. Lo más
cercano es la competición para ganar el premio Loebner, galardonado por el Centro de Estudios del
Comportamiento de Cambridge y el inventor Hugh Loebner. La
idea inicial era dar un permio de 100
000 dólares al programa capaz de pasar el test. Pero conscientes de que hasta
el momento este objetivo es todavía imposible, la organización creó un premio menor
(actualmente de 5 000 dólares) para aquellos programas capaces de engañar a un
juez en una conversación dentro de un contesto limitado, sin que este pueda
usar triquiñuelas para dejar en evidencia al programa. Y por supuesto no se
permite a expertos en la materia ser los jueces. Estas condiciones hacen que
los programas concursantes no pasen de pequeños ingenios capaces de sorprender
a un público no experto, pero que no aportan demasiado al avance de la frontera
de la inteligencia artificial.
Entonces, en un test real, sin
cortapisas ¿Cómo consiguen los jueces pillar a los programas en un renuncio?
Existen distintas formas. Una podría ser pedirles a sus interlocutores que
resuelvan un cálculo aritmético complicado, y si alguien te conteste casi
inmediatamente, parece probable que se trate del robot (aunque algunos humanos
tienen capacidades de cálculo dignas de una calculadora). Pero un programador
inteligente puede proteger su creación haciéndole cometer errores razonables en
cálculos accesibles a un humano, y negárse a realizar operaciones
astronómicas. En realidad la mejor forma de distinguir a un humano de un robot es preguntándole tontás, cuánto más
absurdas mejor. Con cuestiones del tipo “¿Qué te parece que las vacas usen
salvaslip? O ¿Cuánto cuesta un billete de tren para hipopótamos?” es probable
que el programilla en cuestión sude la gota gorda y hasta que se le queme el microprocesador.
Los ordenadores son superpoderosos cuando se les da un problema definido y un
humano o grupo de humanos cuida de que el contexto sea el adecuado. Pero cuando
un ordenador tiene que pensar fuera de la caja en un contexto abierto se mete
en un lío muy serio, y si su papi programador no viene a escribirle nuevas
líneas de código para incluirle una nueva habilidad, el programa simplemente se
atascará o dará respuestas totalmente incoherentes a los ojos de un humano.
Esto no quiere decir que alguno
de estos programas no hayan llegado a ser medianamente convincentes. En 1965
Joseph Weizenbaum escribió un sencillo programa llamado ELIZA que utiliza parte
de la frase que ha recibido para responder. Una variación del programa llamada
Doctor, emula una conversación con un sicoterapeuta mediante conversaciones del
tipo:
- He estado deprimido
últimamente.
- ¿Te sientes deprimido a menudo?
- Si, casi todo el tiempo.
-¿Por qué te sientes deprimido casi
todo el tiempo?
Imaginaos la cara de Weizenbaum
cuando un día en el trabajo se encontró a su secretaría contándole sus secretos
más íntimos a la pantalla del ordenador.
La inspiración e información para la
escritura de este artículo provienen de:
El instinto del lenguaje de Steven Pinker.
Capítulo: Cabezas parlantes
La nueva mente del Emperador de Roger
Penrose. Capítulo: El test de Turing
Imagen:
No hay comentarios :
Publicar un comentario