jueves, 25 de octubre de 2012

"SEÑOR DE LAS MÁQUINAS PENSANTES"


CENTENARIO DE ALAN TURING.
Señor de las máquinas
pensantes
El genio de Bletchley Park ayudó no sólo a la victoria aliada en la Segunda Guerra Mundial, también perfiló el rumbo de la sociedad moderna.

U
na de las dudas más inquietantes entre la sociedad tecnificada es saber si algún día las computadoras podrán pensar por sí mismas, es decir, desarrollar de alguna forma su propia conciencia. A un siglo del nacimiento del matemático inglés Alan Turing, uno de los padres de la informática moderna y el primero que planteó esta posibilidad ante la comunidad científica, los últimos avances prácticos en inteligencia artificial (IA) nos remiten, entre varios ejemplos, a Siri, la aplicación para smartphone, una clase de agenda personalizada que responde a órdenes verbales, organiza las actividades del usuario y de acuerdo con sus preferencias le brinda soluciones prácticas  halladas en Internet. Sin embargo, Siri, todavía tiene problemas en su programación que la colocan muy lejos de lo que podríamos entender como una autentica IA “autónoma”, o de las capacidades vislumbradas por películas de ciencia ficción, como Skynet, la IA que termina por dominar el planeta en la película Terminator. Claro, muchas computadoras han demostrado ser superiores en cierto tipo de destrezas mentales: desde la supercomputadora Deep Blue, que en 1997 derroto al gran maestro ruso Garry Kasparov en un match de ajedrez (2 triunfos, 3 empates), hasta Watson, que en 2011 venció a dos ex campeones en el juego de trivia Jeopardy! Sin embargo estos aparatos, si bien pueden aprender de sus experiencias, no son capaces de realizar otras actividades distintas para las que fueron programadas, mucho menos reflexionar sobre lo que han hecho, tomar iniciativas o mostrar emociones al respecto. La gran interrogante entre los expertos es en la actualidad si estas últimas cualidades son realmente necesarias para el desarrollo futuro de las máquinas.
Relevo inesperado
Alan Mathison Turing nació en Londres el 23 de junio de 1912. De carácter abierto, rebelde y modales excéntricos, su preferencia por las ciencias fue notable, aunque su mal desempeño en el resto de las materias escolares opacó la opinión que de él tenían sus profesores. Fue la amistad entrañable con su compañero de escuela Christopher Morcom la que marcó su vida: con él sostuvo largas conversaciones sobre física y matemáticas, sin embargo fue su repentina muerte en 1930 el hecho que detonaría un cambio decisivo en el joven Turing. A través de la correspondencia que mantuvo con la madre de Morcom en los siguientes tres años, Turing discutió sobre la mente privilegiada de su difunto amigo, la ubicación de su conciencia en el cuerpo y la eventual separación de ésta tras la muerte. Esta clase de pensamientos, aunada a la lectura de temas sobre biología, metafísica, lógica, matemáticas, pero sobre todo el trabajo de física cuántica del físico John Von Neumann, le hicieron formularse la idea del cuerpo humano como una especie de máquina consciente. Y en cierta forma Alan se consideró a sí mismo como el continuador del camino inconcluso de su brillante amigo.
Se inscribió en el Departamento de Matemáticas del King´s College de Londres en 1931, aunque le costó trabajo alcanzar calificaciones suficientes para obtener una beca. Fue sin embargo su trabajo relativo a la teoría de probabilidades “Sobre la función error Gaussiana” (1935) el que lo hizo acreedor al prestigiado Premio Smith de Física Teórica de la Universidad de Cambridge, donde obtuvo una beca de investigación de posgrado. En aquella institución descubrió un ambiente intelectual y social estimulante en el que finalmente pudo dirigir sus ideas, en especial en cuanto a la búsqueda de una solución para la decidibilidad o problema de decisión planteado por el matemático alemán David Hilbert (Entscheidungs-problem); esto es, encontrar el método o algoritmo definitivo por el cual se podría decidir si una afirmación matemática dada es comprobable o no. Para resolverlo, concibió la idea de una máquina de capacidad infinita que hiciera cálculos; que funcionara a través de instrucciones lógicas ejecutables sobre una cinta de papel, mediante señales de entrada y salida.
Miles de actores
En El Señor de los Anillos uno de los escenarios es de proporciones épicas: miles de guerreros se enfrentan en una batalla a lo largo de una planicie. A estas alturas de la historia de la tecnología sabemos que no se utilizaron extras para filmarlas, sino que se trata de una simulación por computadora cuyo nivel de precisión y detalle son impresionantes; cada uno de los combatientes tiene un compromiso propio, distinto al de los demás, conseguido por medio de un software denominado MASSIVE, una inteligencia artificial  empleada en las películas de lo más diverso, cuyo máximo logro fue obtenido en la saga del director Peter Jackson. En el caso de los escenarios relativamente más limitados, como el ajetreo cotidiano de un desfile callejero en  Batman Begins o una antigua estación de trenes en Hugo, podrían pasar por escenas compuestas por actores humanos. El software está diseñado para dirigir las reacciones de personajes simulados por computadora ante diversas situaciones, y su aplicación en proyecciones a futuro podría servir para conocer, por ejemplo, como se comportarían las masas en estructuras como edificios, a fin de mejorar sus diseños. Estos éxitos de taquilla que hoy disfrutamos conjugan dos conceptos teóricos desarrollados por Turing hace más de 50 años. “La aportación genial de la llamada Máquina Universal de Turing”, presenta en su artículo ´Sobre Números Computables´ de 1937, era que, mediante instrucciones codificadas almacenadas en su memoria en forma de números, ese aparato hipotético –se trata de un modelo teórico, Turing no tenía intenciones de construirlo- se comportaría como un camaleón capaz de cambiar de actividad. Podía funcionar como una calculadora y luego convertirse en u  procesador de texto”, explica Jack Copeland, profesor de Lógica y Filosofía en la Universidad de Canterbury, Nueva Zelanda, y director del Archivo Turing de la Historia de la Computación.
De este modo, uno de los orígenes de las computadoras de escritorio presentes en todo el mundo se encuentran en buena medida en la segunda etapa de la vida del matemático inglés. Durante la Segunda Guerra Mundial fue contratado por el gobierno británico para trabajar en Bletchley Park, instalación del ejército de su país dedicada al cifrado de códigos. De aspecto desaliñado, llamaba la atención por sus manías, como el encadenar su taza de café para que no se la quitaran, o andar en bicicleta con una máscara antigás en pleno verano para evitar ataques de alergia al polen. Fue ahí donde colaboró en rediseño de un dispositivo de análisis criptográfico creado en Polonia, denominado Bombe, capaz de descifrar los mensajes en clave de la codificadora alemana Enigma, utilizada por los nazis para dirigir en secreto sus operaciones navales. Puesto al frente de la división Hut 8, Turing pudo encontrar el secreto de los códigos alemanes, escondidos entre millones de combinaciones. Sin su ayuda, quizá la victoria de los aliados hubiera estado en entredicho. “Lo que muchos no saben es que Bombe fue la primera piedra angular de la IA, porque se basaba en la heurística, que es el fundamento de la inteligencia artificial”. Dice Copeland. Es decir, se trata de acotar la búsqueda desechando las opciones menos probables, como lo que todos hacemos cuando perdemos algo: rastreamos los alrededores del lugar donde creemos que puede estar el objeto. Aunque tal búsqueda no necesariamente garantiza siempre resultados ciertos, si suceden estos con frecuencia.
Tras el conflicto, Turing entrevió la posibilidad de construir artefactos inteligentes a partir del trabajo con Bombe. “Lo que queremos es que una máquina pueda aprender mediante la experiencia, como hace un niño”, dijo en 1947 durante una audiencia de la Royal Aastronomical Society. Él pensaba que las computadoras del futuro podrían programarse para responder preguntas, y que a medida que se hicieran más potentes llegarían a hablar con nosotros, o incluso a asentir, y en cierto momento, según las circunstancias, incluso disimular perfectamente su condición artificial, imitándonos de manera que una persona común y corriente no sabría distinguir si se dirigía a un humano o a una computadora. Para conseguir un aparato  can tales capacidades se tendrían que construir redes de neuronas artificiales que, aunque en u principio estuvieran desorganizadas, fueran entrenadas para llevar a cabo tareas especificas. A este concepto, clave de la IA, se le conoce como conexionismo. “La corteza cerebral humana así funciona. Al nacer es un aparato inconexo que se va organizando con la práctica hasta convertirse en una máquina”, escribiría Turing, manteniendo esa analogía que había nacido dese su juventud al pensar en la mente de su amigo fallecido.
Más humano que lo humano
En la película Bladerunner (1982) se plantea la posibilidad que existían androides tan similares a los humanos que serían prácticamente indistinguibles. Para descubrirlos existe una prueba a través de una serie de preguntas sobre sus recuerdos, las cuales les llevaría a manifestar una reacción física que los delate –los robots están programados sin ninguna clase de experiencia emotiva o un pasado-. Pero si bien esto es ciencia ficción, la gran pregunta que Turing se hizo en su momento fue: ¿las máquinas pueden pensar? Esto fue planteado en su artículo pionero “La maquinaria de computación y la inteligencia”, publicado en octubre de 1950, donde se propinia el llamado “juego de la imitación”, hoy conocido como “Prueba de Turing”, cuya finalidad era determinar si una máquina puede ser considerada “inteligente” en términos humanos. Éste consiste en poner a una persona y a una computadora en un cuarto, mientras en una habitación por separado se encuentra un juez. Este último hace una serie de preguntas y, según las respuestas, debe adivinar quién es humano, porque incluso la computadora sería capaz de mentir.
La influencia de esta línea de pensamiento daría origen al concepto de la Inteligencia Artificial. El primer gran paso en la materia l daría el científico estadounidense John McCarthy (1927-2011) cuando en 1956 organizó la primera conferencia internacional sobre el tema, y en donde también acuño el término. Eventualmente fundó el primer laboratorio de l especialidad en el Tecnológico de Massachusetts en 1959. Desde entonces (con el seguimiento de la Ley de Moore, establecida en 1965 por el cofundador de Intel, la cual señala que el número de transistores en un circuito integrado se duplica cada 18 meses) se cree que la capacidad de rapidez de memoria de las computadoras podría en un futuro no sólo igualar la destreza mental humana y superarla, sino también desarrollar ciertas capacidades de autoconocimiento.
Sin embargo, existe una discusión entre los expertos en IA respecto a la propia definición de la palabra “inteligencia”, y cuestionan la necesidad de orientar a las máquinas para que expresen sus capacidades en términos humanos; es decir, aun cuando ninguna computadora haya podido superar la Prueba  de Turing, algunos científicos no la consideran relevante porque creen que evalúa el comportamiento humano del artefacto, del mismo modo que las pruebas de coeficiente intelectual, y no del comportamiento inteligente del mismo. Esta visión antropocéntrica de la capacidad del intelecto incluso afecta la búsqueda de vida extraterrestre. Tal como propone el doctor Ben Goertzel, el concepto de inteligencia debe ser más amplio: “alcanzar objetivos complejos en ambientes complejos, la naturaleza de un sistema inteligente específico está destinada a ser altamente dependiente de la naturaleza del entorno en el que se encuentra”, indica el fundador de la empresa Novamente LLC, compañía de software dedicada a encontrar una IA denominada Inteligencia Artificial General. En este sentido, una IA o cualquiera otra identidad no humana debería ser evaluada en virtud de los problemas que pudiera resolver de acuerdo con las circunstancias en las que se desarrolle, por lo que los programas como los descritos anteriormente como Siri o MASSIVE estarían desempeñándose bastante bien aunque no puedan responder “cómo se sienten” o tengan cierto grado de ambición o curiosidad, facultades eminentemente humanas. La definición general de inteligencia para Goertzel es “la capacidad de un sistema para escoger sus acciones, basado en sus percepciones y memorias, haciendo uso razonablemente eficiente de sus recursos computacionales”.
Carrera trunca
Para 1950 Turing era profesor titular de una nueva materia en la Universidad de Manchester denominada Teoría de la Computación. Al mismo tiempo, empezaba a interesarse por la boimatemática, en particular por la morfogénesis, el proceso que permite a los organismos desarrollar complejas formas y patrones, como la estructura de los vegetales o las manchas de los leopardos, patrones que pueden ser los mismos que dirigen ecosistemas complejos o incluso galaxias.
Sin embargo, pese al servicio prestado a su país y a la ciencia, el matemático tuvo una vida corta y trágica. Su abierta homosexualidad lo llevó a enfrentar un cargo por “incidencia grave y perversión” en 1952, pues en la Inglaterra de aquella época dicha preferencia era castigada penalmente. Tuvo que elegir entre la cárcel o un tratamiento con estrógenos para “curarse”; al final eligió esto último, orillándolo a una profunda depresión. En 1954 murió envenenado con cianuro, supuestamente contenido en una manzana que se halló mordisqueada junto al cadáver. Aunque fue calificado como suicidio, la teoría de un asesinato asoma en algunas teorías de conspiración. No sería sino hasta 2009 cuando el gobierno británico pediría disculpas públicamente, aunque en febrero de este año (2012) el Parlamento de aquel país se retracto y ha justificado de nuevo la decisión, dado que se habría cumplido la ley que entonces imperaba. El legado de Turing sin embargo ha trascendido más allá de la intolerancia, y es tan amplio que es difícil encasillarlo en una sola categoría. A la fecha nadie ha podido construir una máquina más potente que la computadora teórica que concibió; una capaz de razonar como nosotros e incluso llegue a engañarnos haciéndose pasar por un humano. Pero dadas las lamentables circunstancias que la sociedad impuso a este genio, quizá sea mejor que las computadoras desarrollen su propia línea de pensamiento y nunca lleguen a parecerse a nosotros.





ORDAZ MORALES ISAIAS RAFAEL




No hay comentarios:

Publicar un comentario