IBM Watson y la era de los sistemas cognitivos

Una de máquinas que responden preguntas

“Watson se detuvo. Lo más parecido a una cara que tenía, una esfera brillando en una pantalla, cambió de color verde a un tono oscuro de azul. Filamentos de amarillo y rojo se movieron incesantemente a su alrededor, como caminos de jets circumnavegando el mundo. Este patrón representaba un estado de tranquila anticipación mientras la supercomputadora esperaba la siguiente pregunta. Era una mañana de septiembre de 2010 en IBM Research, en las colinas de la ciudad de Nueva York. y la computadora, conocida como Watson, estaba aniquilando a dos humanos, ambos campeones del juego, en las prácticas de Jeopardy! Dentro de unos meses estaría jugando por televisión frente a todo Estados Unidos, en un millonario juego de “hombre vs máquina” frente a dos de los mejores jugadores de Jeopardy! de la historia.”

Así comienza el excelente libro de Baker (2011) que a lo largo de sus páginas nos relata la “biografía” de la inteligencia artificial más glamorosa que haya aparecido en los últimos años: IBM Watson.

Es oportuno remitirnos a algunos años atrás. Muchos recordarán la anécdota de cuando una máquina le ganó al mejor ajedrecista del mundo, Garry Kasparov. Yo no tenía aún ni 10 años pero hubo tanto eco de la noticia que la gran proeza computacional llegó hasta las páginas de la revista para niños que leía en ese entonces. Lo que la mayoría de la gente conocía de “inteligencia artificial” venía de la ciencia ficción, tanto escrita como cinematográfica. A pesar de todo resultaba bastante dificultoso establecer alguna relación entre esta máquina que ocupaba una habitación entera con el personaje de Schwarzenegger en Terminator 1 (1987) o siquiera con C3PO de la saga de La Guerra de las Galaxias (1977). Watson, era una máquina que cumplía una sola función y de forma muy poco pintoresca.

Deep Blue, el maestro ajedrecista

Originalmente llamado “Deep Thought II” y finalmente renombrado como “Deep Blue” por cuestiones de márketing e imagen, el proyecto de IBM queríamostrar que el otrora gigante informátoco era el líder en materia de parallel computing o computación paralela usando monstruosos (y costosos equipos). Deep Blue estaba construida para calcular 200 millones de jugadas de ajedrez por segundo, haciéndola una máquina bastante tonta como jugadora, pero con la capacidad de darse el lujo de probar una cantidad ridícula de posibilidades, que ni siquiera los programas de ajedrez modernos ejecutan. En cambio, estos programas de ajedrez reducen la cantidad de jugadas que deben calcular reconociendo buenos y malos cursos de acción (ma sparecidos a un ajedrecista humano).

Deep Blue Kasparov

IBM no perdió el tiempo y apenas Deep Blue le ganó a Kasparov (para oprobio suyo y de su madre) en mayo de 1997, comenzó a usar las aplicaciones de esta tecnología para el modelado financiero (incluyendo proyecciones de tendencias y riesgos de finanzas), data mining (mostrando las relaciones ocultas y los patrones que hay en las grandes bases de datos), dinámica molecular (para encontrar y desarrollar nuevos medicamentos), entre otras. El carísimo show que montó IBM le terminó rindiendo y efectivamente se mantuvo como líder en materia de estas complejas y masivas operaciones computacionales.

Sin embargo, la consecuencia duradera no sería el éxito de IBM sino la instalación de la idea de que, al menos en ciertos campos de la inteligencia, las máquinas son rivales dignos para los humanos.

Pero el mundo diez años más tarde ya no era el mismo, y hablar de inteligencia artificial no remitía únicamente a la ciencia-ficción, sino que de repente Google nos sorprendía con traducciones de textos y predecía nuestras búsquedas, había máquinas que asistían en el diagnóstico de enfermedades, y hasta teníamos autos como Stanley que en el 2004 pudo recorrer 200 kilómetros de forma completamente autónoma a través del desierto de Mojave. Hablar de inteligencia artificial ya era hablar de cosas que estaban sucediendo y no de alocadas fantasías. Por este motivo un desafío como el que se le presentó a IBM con Deep Blue quedaba chico. El ajedrez, dentro de todo, es muy cómodo para programar las estrategias de un agente. En principio, el juego opera a través de reglas bien delimitadas y el “lenguaje” entre el humano y la máquina es compartido: se trata de las distintas coordenadas de las jugadas, no hay ningún tipo de “interpretación” que la máquina deba hacer del comportamiento humano que vaya más allá de ver cómo mueve las piezas.

La antiquísima tendencia de relacionar a las computadoras con la inteligencia (de negocios, de análisis, etcétera) fue lo que motivó el desarrollo de Deep Blue y lo que llevó que en el 2006 volviera al seno de IBM la idea de hacer una nueva demostración de sus alegadas máquinas inteligentes. El objetivo era inaugurar con el mayor impacto posible una nueva etapa de la empresa, que por esos años comenzaba a instalarse definitivamente como líder en el incipiente campo del Big Data y la analítica computacional en general.

Presentando a Watson, el niño prodigio de IBM

Siguiendo la experiencia con Deep Blue se buscaron nuevos desafíos y su correspondiente solución en el campo de la “inteligencia” “powered by IBM”. Paul Horn, que hasta el 2007 lideró el área de investigación de IBM, no tardó mucho en encontrar uno que parecía simplemente imposible: ganar un juego de Jeopardy!, arraigado en el imaginario popular estadounidense como sinónimo de inteligencia.

Como indica Wikipedia:

Jeopardy! es un concurso de televisión estadounidense con preguntas sobre historia, literatura, arte, cultura popular, ciencia, deportes, geografia, juegos de palabras, y otros temas. El programa tiene un formato de “respuesta y pregunta”, en el cual a los concursantes se les presentan pistas en forma de respuestas, y deben dar sus respuestas en forma de una pregunta.”

Claramente, ganar un concurso como Jeopardy! implica mucho más que el cálculo de jugadas y, de hecho, es mucho más que simplemente buscar una respuesta. El primer desafío es entender qué debemos buscar, navegando entre juegos de palabras y pistas generalmente escritas de manera muy enroscada. Entender los juegos del lenguaje es algo en lo que las máquinas fracasan casi en la totalidad de los casos. Si bien IBM estaba trabajando con máquinas que podían responder ciertas preguntas en campos acotados (los llamados sistemas expertos), éstas ni por asomo podrían siquiera intentar responder una pregunta cualquiera de un juego de Jeopardy!

Horn, sin embargo, decidió tomar el desafío y para eso invitó a David Ferrucci para que liderara DeepQA. Este ambicioso proyecto de investigación, aún vigente, busca ilustrar cómo el desarrollo en las ciencias de la computación en terrenos como el procesamiento de lenguaje natural (Natural Language Processing o NLP), la recuperación de información, machine learning, la representación del conocimiento y el razonamiento, y la computación paralela masiva, orquestados de manera correcta, pueden incorporarse en sistemas de respuestas a preguntas de dominio abierto (esto es, sin restricciones de temas como los de los sistemas expertos), llegando al punto en el que consistentemente rivalizan con la mejor performance humana.

En los cuatro años de desarrollo del proyecto DeepQA (que eventualmente pasó a llamarse Watson en honor al fundador de IBM) regularmente se realizaban partidas de entrenamiento con 500 pistas de anteriores juegos de Jeopardy!. En estas rondas de prueba se pasó de un índice de aciertos del 15% en el 2006 (mientras que los humanos obtenían cerca del 95%), a lograr competir con campeones humanos en el 2008, hasta finalmente ganarle a los participantes -anteriores campeones del juego- en la televisión pública en el 2010.

watson_the_jeopardy_playing_computers_hardware_setup

Concretamente, el desafío de Jeopardy! consistía en preparar a la máquina para que compitiera en las mismas condiciones que los humanos. A saber, i) no podría tener conexión a internet, por lo que ii) toda la información tendría que estar cargada para su acceso inmediato en la memoria de la máquina, iii) la máquina debería presionar un botón físico con un dedo robótico, iv) las preguntas y las respuestas deberían darse en las mismas condiciones que las de los humanos, las preguntas en lenguaje natural (aunque entregadas en formato textual para Watson) y algunas respuestas se entregarían de forma escrita, y, finalmente, v) Watson sólo podría apretar el pulsador al tener una respuesta y no usar la técnica (usada comúnmente por los humanos) de apretarlo cuanto antes.

Dado que Watson no tendría acceso a internet, al igual que los humanos, debía contar con todo el conocimiento posible a su disposición durante la partida. Para esto el equipo de IBM incorporó los algoritmos más ágiles de recuperación de datos no estructurados. Nuestro mundo digital está compuesto mayormente por datos no estructurados, estos datos representan la información en  lenguaje natural contenida en nuestras conversaciones por Facebook o Twitter, nuestros emails, o hasta el texto de los libros y diarios. Toda esa información debía ser servida de forma estructurada para que Watson pudiera reconocerla y usarla.

Uno de los desafíos que se presentó fue procesar todo el conocimiento acumulado de la humanidad de tal forma que quedara en un formato que las máquinas pudieran entender. Este es el mismo desafío que se presenta cuando se habla de Big Data: la mayoría de la información disponible está en un formato incomprensible para las máquinas. Aquí es donde entran en juego los campos del data mining o recuperación de datos, el procesamiento de lenguaje natural, junto a las técnicas avanzadas de representación del conocimiento y los razonamientos. En hermosa sintonía, se aplicaron las técnicas disponibles de estos campos para que Watson al momento de jugar tuviera en su memoria todo el conocimiento que tenemos encerrado en nuestros libros y enciclopedias, procesado de tal forma que sus algoritmos pudieran responder a preguntas como:

“Esta península de 85 mil millas cuadradas fue gobernada por una sola dinastía entre 1392 y 1910” (Corea)

o

“Apropiadamente, la tapa de este álbum de los Beatles muestra a los cuatro miembros realizando un mensaje de semáforo” (Help!)

Claramente estas preguntas no son de respuesta trivial y remiten a muchos campos del conocimiento. La gran innovación de IBM Watson no fue el desarrollo de un algoritmo de recuperación de respuestas, sino la articulación de decenas de algoritmos rivales que especializados en distintos campos o estrategias buscan las respuestas al mismo tiempo y la convierten en una respuesta. De esta forma, Watson termina eligiendo entre aquellas respuestas que los algoritmos ofrecen con mayor confianza. Curiosamente, en la pantalla del televisor durante el gran juego en mayo de 2010 podían verse las distintas respuestas que barajaba Watson y cuánta confianza depositaba en cada una. Si estas respuestas no llegaban a cierto umbral, Watson se quedaba callado y pedía pasar.

01IBM-Watson

Gracias a la magia de Youtube pueden verse los tres juegos en los que participaron junto a Watson los anteriores ganadores Brad Rutter y Ken Jennings. Todas estas cuestiones teóricas se suman con elocuencia en los aciertos y los embarazosos errores de nuestra máquina favorita. La pregunta que podría quedar pendiente es qué pasó con Watson luego de que ganó ese millón de dólares. Y las respuestas no podrían ser más entusiasmantes.

El futuro de Watson

La primer misión para el joven Watson fue incorporarse a la industria médica estadounidense. Perfilado como una especie de “Dr House computacional”, Watson está procesando de a poco toda la literatura de la medicina (ya lleva procesados entre dos y tres millones de documentos, 42 publicaciones enteras y 600 mil casos de evidencia médica) y puede asistir en los diagnósticos complejos, ofreciendo en última instancia un abanico de posibilidades para que los humanos puedan orientar mejor su búsqueda. Su primer caso de éxito fue en el diagnóstico de cáncer de pulmón, donde ya consiguió mayor efectividad que los humanos.

Pero IBM planea no limitarse a algún campo en particular y busca establecer a Watson como el tipo de tecnología que se necesita para trabajar con Big Data: máquinas superpoderosas que pueden procesar la información no estructurada, desprolija y demás y convertirla en datos cuantificables, accesibles, escrutables en vista de proyecciones y respuestas a preguntas concretas.

Watson, en una de sus últimas proezas desarrolló nuevas recetas en base a una porción del gran conjunto de datos que maneja.

Y eso es sólo el comienzo: Watson podría asistir en aquellas tareas que IBM trataba de realizar con los parientes de Deep Blue, como la síntesis de nuevos medicamentos, el descubrimiento de entramados complejos entre los artículos académicos de cualquier disciplina, y principalmente la posibilidad de asistir en cualquier investigación que deba lidiar con grandes conjuntos de datos, pero esta vez con un giro especial: Watson puede tener un modelo computacional de los datos que procesa y se diferencia esencialmente de su tío Deep Blue, que sólo hacía grandes cuentas matemáticas a gran velocidad.

En un mundo con cada vez más datos generados por humanos, son las máquinas las que deben lograr aprehender la información contenida en ellos y procesarla de tal modo que podamos comunicarnos en un lenguaje común. Máquinas como Watson que lejos de ser el límite de lo que podemos lograr se establecen como faros en el avance de una coexistencia en la que las máquinas hacen cosas de máquinas, y los humanos hacemos cosas de humanos, pero lo hacemos en conjunto y entendiéndonos mutuamente.

One Response to “IBM Watson y la era de los sistemas cognitivos”

Deja un comentario

 

Últimos artículos

Big Brain Project

Todos somos inventores*

Abrir la caja negra