jueves, 19 de agosto de 2004

Pensamientos sueltos sobre IA

Cuando empece a leer ciencia ficción yo era muy chico, -tendría 8 o 9 años- y obviamente el material que caía en mis manos era material muy sencillo y fácil de digerir. Entre los que recuerdo con mucho cariño está "Yo, Robot" del buen doctor Asimov, cuya adaptación al cine se estrenó recientemente. Este libro lo releí muchas veces en los años siguientes, en parte por nostalgia y en parte porque conforme iba yo leyendo o conociendo otras cosas le iba encontrando significados nuevos a los cuentos y, en particular, a las tres leyes de la robótica.

En los últimos años el boom de cine de género (SciFi y fantasía) han puesto nuevamente de moda el tema de los robots e inteligencia artificial, pero bajo una óptica diferente, más pragmática y realista que la que le tocó a nuestros padres y abuelos.

Aunque las máquinas autómatas fueron inventados hacia finales del siglo XIX, el término robot fué introducido hasta 1920 por el checoslovaco Karel Capek en la obra de teatro R.U.R. (Rossum's Universal Robots) para describir mecanismos o máquinas de forma humanoide con inteligencia propia. Robot viene del checo Robota, que significa "trabajo forzado", dado que desde el principio se pensó en los robots como mano de obra esclavizada (obviamente como una forma de crítica al capitalismo).

En 1942 Isaac Asimov escribió Runaround, donde hace la primera mención de las famosas tres leyes:

  1. Un robot no puede lesionar a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida que esta protección no sea incompatible con la Primera o Segunda Ley.

Posteriormente muchos ingenieros entusiastas de la robótica (palabra creada también por Asimov, y según él, por accidente) se dieron a la tarea de confeccionar mecanismos y programas que siguieran estas leyes, pero ¿cómo saber sin dudas que una máquina es inteligente?. La prueba más famosa es el test de Turing:

"Se coloca a una persona en un cuarto comunicado con otros dos: en uno hay una persona y en el otro una maquina, pero ninguno puede ver a los otros dos. Si la primera persona es incapaz de deducir por su conversación cual de sus interlocutores es la máquina, entonces la máquina es inteligente".

El argumento principal que apoya esta teorema es que "si la máquina es capaz de engañar a una persona para que crea que habla con otra entonces la máquina debe ser inteligente". Aunque muchos programas -incluyendo al campeón de ajedrez Deep Blue y a Eliza- han sido sometidos al test de Turing ninguna ha logrado pasarlo (el programa que más se ha acercado es Alice). Este mismo test es al que se ven sometidos los replicantes en la película en BladeRunner, y del que rinde un triste homenaje la película The 6th Day de Arnold Schwartzenegger.

Lo que nos lleva a separar los componentes de una máquina inteligente: el hardware, que solo es un chasis que permite al robot interactuar con el mundo físico y con sus usuarios, y el software, que es el programa que realmente le da inteligencia al robot. Aunque en la realidad los dos derían ir ligados -ya es bastante difícil tener en la actualidad aplicaciones multiplataforma-, en la ficción siempre o casi siempre se les refiere como partes separadas, analogías al cuerpo y al alma o mente humanos. Un buen ejemplo de esto ocurre en la trilogía de The Matrix, donde la "inteligencia" de las máquinas toma forma humana (como "agentes") en el etéreo mundo que tiene aprisionada a la humanidad, pero que en el mundo real utiliza sentinelas robóticos o incluso cuerpos humanos como vehículo. Esto también se aplica a los cuentos de robots de Asimov, donde las leyes eran parte del "software" positrónico.

Hay muchas personas -ingenieros incluídos- que sostienen que estas son las bases correctas para el desarrollo de la inteligencia artificial, pero no toman en cuenta que desde el principio -en el caso de las tres leyes- estas fueron desarrolladas no para ser perfectos, sino para que los sutiles conflictos que surgieran de sus imperfecciones pudieran utilizarse como argumentos en las historias. Uno de los robots de Asimov jamás pasaría el test de Turing si su interlocutor le ordena en tono enérgico que no le mienta. Por otro lado, si un robot pudiera ser capaz de pasar el test de Turing, entonces en teoría también sería capaz de mentir, robar o matar.

Este recurso también a sido muy utilizado en la ficción especulativa. Asimov se refería a él como "El complejo de Frankenstein", que es el temor del creador a que su creación sea superior a él o a que se vuelva en su contra, aunque personalmente creo que en el fondo es el miedo del ser humano a ver reflejada su propia realidad interna.

El mayor problema es que la IA -real o fantástica- es modelada en base al único modelo que se conoce de inteligencia: la del propio ser humano, misma que dista mucho de ser moral o éticamente perfecta. Tal vez así, en la búsqueda de la inteligencia articificial, la humanidad pueda aprender algo sobre sí misma.

No hay comentarios.:

Publicar un comentario