CENTENARIO DE ALAN TURING.
Señor de las máquinas
pensantes
El genio de Bletchley Park ayudó no sólo a la victoria aliada en la
Segunda Guerra Mundial, también perfiló el rumbo de la sociedad moderna.
U
|
na de las dudas más
inquietantes entre la sociedad tecnificada es saber si algún día las
computadoras podrán pensar por sí mismas, es decir, desarrollar de alguna forma
su propia conciencia. A un siglo del nacimiento del matemático inglés Alan
Turing, uno de los padres de la informática moderna y el primero que planteó
esta posibilidad ante la comunidad científica, los últimos avances prácticos en
inteligencia artificial (IA) nos remiten, entre varios ejemplos, a Siri, la
aplicación para smartphone, una clase de agenda personalizada que responde a
órdenes verbales, organiza las actividades del usuario y de acuerdo con sus
preferencias le brinda soluciones prácticas halladas en Internet. Sin embargo, Siri,
todavía tiene problemas en su programación que la colocan muy lejos de lo que
podríamos entender como una autentica IA
“autónoma”, o de las capacidades vislumbradas por películas de ciencia ficción,
como Skynet, la IA que termina por
dominar el planeta en la película Terminator.
Claro, muchas computadoras han demostrado ser superiores en cierto tipo de
destrezas mentales: desde la supercomputadora Deep Blue, que en 1997
derroto al gran maestro ruso Garry Kasparov en un match de ajedrez (2 triunfos,
3 empates), hasta Watson, que en 2011 venció a dos ex campeones en el juego de
trivia Jeopardy! Sin embargo estos aparatos, si bien pueden aprender de sus
experiencias, no son capaces de realizar otras actividades distintas para las
que fueron programadas, mucho menos reflexionar sobre lo que han hecho, tomar
iniciativas o mostrar emociones al respecto. La gran interrogante entre los
expertos es en la actualidad si estas últimas cualidades son realmente
necesarias para el desarrollo futuro de las máquinas.
Relevo inesperado
Alan Mathison Turing
nació en Londres el 23 de junio de 1912. De carácter abierto, rebelde y modales
excéntricos, su preferencia por las ciencias fue notable, aunque su mal
desempeño en el resto de las materias escolares opacó la opinión que de él
tenían sus profesores. Fue la amistad entrañable con su compañero de escuela
Christopher Morcom la que marcó su vida: con él sostuvo largas conversaciones
sobre física y matemáticas, sin embargo fue su repentina muerte en 1930 el
hecho que detonaría un cambio decisivo en el joven Turing. A través de la
correspondencia que mantuvo con la madre de Morcom en los siguientes tres años,
Turing discutió sobre la mente privilegiada de su difunto amigo, la ubicación
de su conciencia en el cuerpo y la eventual separación de ésta tras la muerte.
Esta clase de pensamientos, aunada a la lectura de temas sobre biología,
metafísica, lógica, matemáticas, pero sobre todo el trabajo de física cuántica
del físico John Von Neumann, le hicieron formularse la idea del cuerpo humano
como una especie de máquina consciente. Y en cierta forma Alan se consideró a
sí mismo como el continuador del camino inconcluso de su brillante amigo.
Se inscribió en el
Departamento de Matemáticas del King´s College de Londres en 1931, aunque le
costó trabajo alcanzar calificaciones suficientes para obtener una beca. Fue
sin embargo su trabajo relativo a la teoría de probabilidades “Sobre la función
error Gaussiana” (1935) el que lo hizo acreedor al prestigiado Premio Smith de
Física Teórica de la Universidad de Cambridge, donde obtuvo una beca de
investigación de posgrado. En aquella institución descubrió un ambiente
intelectual y social estimulante en el que finalmente pudo dirigir sus ideas,
en especial en cuanto a la búsqueda de una solución para la decidibilidad o problema
de decisión planteado por el matemático alemán David Hilbert
(Entscheidungs-problem); esto es, encontrar el método o algoritmo definitivo
por el cual se podría decidir si una afirmación matemática dada es comprobable
o no. Para resolverlo, concibió la idea de una máquina de capacidad infinita
que hiciera cálculos; que funcionara a través de instrucciones lógicas
ejecutables sobre una cinta de papel, mediante señales de entrada y salida.
Miles de actores
En El Señor de los
Anillos uno de los escenarios es de proporciones épicas: miles de guerreros se
enfrentan en una batalla a lo largo de una planicie. A estas alturas de la
historia de la tecnología sabemos que no se utilizaron extras para filmarlas,
sino que se trata de una simulación por computadora cuyo nivel de precisión y
detalle son impresionantes; cada uno de los combatientes tiene un compromiso
propio, distinto al de los demás, conseguido por medio de un software
denominado MASSIVE, una inteligencia artificial
empleada en las películas de lo más diverso, cuyo máximo logro fue
obtenido en la saga del director Peter Jackson. En el caso de los escenarios
relativamente más limitados, como el ajetreo cotidiano de un desfile callejero
en Batman Begins o una antigua estación
de trenes en Hugo, podrían pasar por escenas compuestas por actores humanos.
El software está diseñado para dirigir las reacciones de personajes simulados
por computadora ante diversas situaciones, y su aplicación en proyecciones a
futuro podría servir para conocer, por ejemplo, como se comportarían las masas
en estructuras como edificios, a fin de mejorar sus diseños. Estos éxitos de
taquilla que hoy disfrutamos conjugan dos conceptos teóricos desarrollados por
Turing hace más de 50 años. “La aportación genial de la llamada Máquina
Universal de Turing”, presenta en su artículo ´Sobre Números Computables´ de
1937, era que, mediante instrucciones codificadas almacenadas en su memoria en
forma de números, ese aparato hipotético –se trata de un modelo teórico, Turing
no tenía intenciones de construirlo- se comportaría como un camaleón capaz de
cambiar de actividad. Podía funcionar como una calculadora y luego convertirse
en u procesador de texto”, explica Jack
Copeland, profesor de Lógica y Filosofía en la Universidad de Canterbury, Nueva
Zelanda, y director del Archivo Turing de la Historia de la Computación.
De este modo, uno de
los orígenes de las computadoras de escritorio presentes en todo el mundo se
encuentran en buena medida en la segunda etapa de la vida del matemático
inglés. Durante la Segunda Guerra Mundial fue contratado por el gobierno
británico para trabajar en Bletchley Park, instalación del ejército de su país
dedicada al cifrado de códigos. De aspecto desaliñado, llamaba la atención por
sus manías, como el encadenar su taza de café para que no se la quitaran, o
andar en bicicleta con una máscara antigás en pleno verano para evitar ataques
de alergia al polen. Fue ahí donde colaboró en rediseño de un dispositivo de
análisis criptográfico creado en Polonia, denominado Bombe, capaz de descifrar los mensajes en clave de la codificadora
alemana Enigma, utilizada por los
nazis para dirigir en secreto sus operaciones navales. Puesto al frente de la
división Hut 8, Turing pudo encontrar el secreto de los códigos alemanes,
escondidos entre millones de combinaciones. Sin su ayuda, quizá la victoria de
los aliados hubiera estado en entredicho. “Lo que muchos no saben es que Bombe fue la primera piedra angular de
la IA, porque se basaba en la
heurística, que es el fundamento de la inteligencia artificial”. Dice Copeland.
Es decir, se trata de acotar la búsqueda desechando las opciones menos
probables, como lo que todos hacemos cuando perdemos algo: rastreamos los
alrededores del lugar donde creemos que puede estar el objeto. Aunque tal
búsqueda no necesariamente garantiza siempre resultados ciertos, si suceden
estos con frecuencia.
Tras el conflicto,
Turing entrevió la posibilidad de construir artefactos inteligentes a partir
del trabajo con Bombe. “Lo que
queremos es que una máquina pueda aprender mediante la experiencia, como hace
un niño”, dijo en 1947 durante una audiencia de la Royal Aastronomical Society.
Él pensaba que las computadoras del futuro podrían programarse para responder
preguntas, y que a medida que se hicieran más potentes llegarían a hablar con
nosotros, o incluso a asentir, y en cierto momento, según las circunstancias,
incluso disimular perfectamente su condición artificial, imitándonos de manera
que una persona común y corriente no sabría distinguir si se dirigía a un
humano o a una computadora. Para conseguir un aparato can tales capacidades se tendrían que
construir redes de neuronas artificiales que, aunque en u principio estuvieran
desorganizadas, fueran entrenadas para llevar a cabo tareas especificas. A este
concepto, clave de la IA, se le
conoce como conexionismo. “La corteza cerebral humana así funciona. Al nacer es
un aparato inconexo que se va organizando con la práctica hasta convertirse en
una máquina”, escribiría Turing, manteniendo esa analogía que había nacido dese
su juventud al pensar en la mente de su amigo fallecido.
Más humano que lo humano
En la película Bladerunner
(1982) se plantea la posibilidad que existían androides tan similares a
los humanos que serían prácticamente indistinguibles. Para descubrirlos existe
una prueba a través de una serie de preguntas sobre sus recuerdos, las cuales
les llevaría a manifestar una reacción física que los delate –los robots están
programados sin ninguna clase de experiencia emotiva o un pasado-. Pero si bien
esto es ciencia ficción, la gran pregunta que Turing se hizo en su momento fue:
¿las máquinas pueden pensar? Esto fue planteado en su artículo pionero “La
maquinaria de computación y la inteligencia”, publicado en octubre de 1950,
donde se propinia el llamado “juego de la imitación”, hoy conocido como “Prueba
de Turing”, cuya finalidad era determinar si una máquina puede ser considerada
“inteligente” en términos humanos. Éste consiste en poner a una persona y a una
computadora en un cuarto, mientras en una habitación por separado se encuentra
un juez. Este último hace una serie de preguntas y, según las respuestas, debe
adivinar quién es humano, porque incluso la computadora sería capaz de mentir.
La influencia de esta
línea de pensamiento daría origen al concepto de la Inteligencia Artificial. El
primer gran paso en la materia l daría el científico estadounidense John
McCarthy (1927-2011) cuando en 1956 organizó la primera conferencia
internacional sobre el tema, y en donde también acuño el término. Eventualmente
fundó el primer laboratorio de l especialidad en el Tecnológico de
Massachusetts en 1959. Desde entonces (con el seguimiento de la Ley de Moore,
establecida en 1965 por el cofundador de Intel, la cual señala que el número de
transistores en un circuito integrado se duplica cada 18 meses) se cree que la
capacidad de rapidez de memoria de las computadoras podría en un futuro no sólo
igualar la destreza mental humana y superarla, sino también desarrollar ciertas
capacidades de autoconocimiento.
Sin embargo, existe
una discusión entre los expertos en IA respecto
a la propia definición de la palabra “inteligencia”, y cuestionan la necesidad
de orientar a las máquinas para que expresen sus capacidades en términos
humanos; es decir, aun cuando ninguna computadora haya podido superar la Prueba de Turing, algunos científicos no la
consideran relevante porque creen que evalúa el comportamiento humano del
artefacto, del mismo modo que las pruebas de coeficiente intelectual, y no del
comportamiento inteligente del mismo. Esta visión antropocéntrica de la capacidad
del intelecto incluso afecta la búsqueda de vida extraterrestre. Tal como
propone el doctor Ben Goertzel, el concepto de inteligencia debe ser más amplio:
“alcanzar objetivos complejos en ambientes complejos, la naturaleza de un
sistema inteligente específico está destinada a ser altamente dependiente de la
naturaleza del entorno en el que se encuentra”, indica el fundador de la
empresa Novamente LLC, compañía de software dedicada a encontrar una IA
denominada Inteligencia Artificial General. En este sentido, una IA o
cualquiera otra identidad no humana debería ser evaluada en virtud de los
problemas que pudiera resolver de acuerdo con las circunstancias en las que se
desarrolle, por lo que los programas como los descritos anteriormente como Siri
o MASSIVE estarían desempeñándose bastante bien aunque no puedan responder “cómo
se sienten” o tengan cierto grado de ambición o curiosidad, facultades
eminentemente humanas. La definición general de inteligencia para Goertzel es
“la capacidad de un sistema para escoger sus acciones, basado en sus
percepciones y memorias, haciendo uso razonablemente eficiente de sus recursos
computacionales”.
Carrera trunca
Para 1950 Turing era
profesor titular de una nueva materia en la Universidad de Manchester
denominada Teoría de la Computación. Al mismo tiempo, empezaba a interesarse
por la boimatemática, en particular por la morfogénesis, el proceso que permite
a los organismos desarrollar complejas formas y patrones, como la estructura de
los vegetales o las manchas de los leopardos, patrones que pueden ser los
mismos que dirigen ecosistemas complejos o incluso galaxias.
Sin embargo, pese al
servicio prestado a su país y a la ciencia, el matemático tuvo una vida corta y
trágica. Su abierta homosexualidad lo llevó a enfrentar un cargo por
“incidencia grave y perversión” en 1952, pues en la Inglaterra de aquella época
dicha preferencia era castigada penalmente. Tuvo que elegir entre la cárcel o
un tratamiento con estrógenos para “curarse”; al final eligió esto último,
orillándolo a una profunda depresión. En 1954 murió envenenado con cianuro,
supuestamente contenido en una manzana que se halló mordisqueada junto al
cadáver. Aunque fue calificado como suicidio, la teoría de un asesinato asoma
en algunas teorías de conspiración. No sería sino hasta 2009 cuando el gobierno
británico pediría disculpas públicamente, aunque en febrero de este año (2012)
el Parlamento de aquel país se retracto y ha justificado de nuevo la decisión,
dado que se habría cumplido la ley que entonces imperaba. El legado de Turing
sin embargo ha trascendido más allá de la intolerancia, y es tan amplio que es
difícil encasillarlo en una sola categoría. A la fecha nadie ha podido
construir una máquina más potente que la computadora teórica que concibió; una
capaz de razonar como nosotros e incluso llegue a engañarnos haciéndose pasar
por un humano. Pero dadas las lamentables circunstancias que la sociedad impuso
a este genio, quizá sea mejor que las computadoras desarrollen su propia línea
de pensamiento y nunca lleguen a parecerse a nosotros.
ORDAZ MORALES
ISAIAS RAFAEL
No hay comentarios:
Publicar un comentario