Los robots de Star Wars

« Papá, papá, ¿cómo hacemos bebés robot?
— Bueno, es fácil, tomas una placa madre, espermatozoides, y…… »

No, no bromees, ¿de dónde salieron los droides que ves en La Guerra de las Galaxias?. Hay algo para todos, de todas las formas y tamaños, y además de que cada uno tiene una tarea específica que realizar, están dotados regularmente de una personalidad que los hace únicos.

Y sin embargo, a medida que avanza la saga, no dejamos de ver a algunos de ellos dejar su función primaria y trascender su naturaleza; lo que nos lleva a cuestionarnos sobre sus respectivos orígenes.

En un momento en que los robots ocupan cada vez más espacio en nuestras vidas, las cuestiones que aborda la ciencia ficción sobre el tema merecen nuestro interés más que nunca.

El hecho de que todo el mundo conoce el universo de Star Wars de cerca y de lejos lo convierte en un vehículo perfecto para abordar el problema. Sobre todo porque, como verán, podemos tejer a partir de este material, un razonamiento mucho más avanzado de lo que parece a primera vista.

Dúo de choque

No es de extrañar que discutamos el tema a través de la pareja más famosa de la galaxia: R2D2 y C3PO (Z6PO para los nostálgicos).

Una garantía humorística de los primeros episodios, vectores esenciales de la trama, compañeros fieles, los dos droides recogidos en Tatooine por Luke Skywalker y su tío Owen son personajes por derecho propio, de importancia capital.

Tanto es así que son los primeros personajes que aparecen en el montaje durante el episodio IV (película original, si es necesario recordarla….)… ¡es decir!. Y su omnipresencia en el cine sólo confirma esta intuición. Por supuesto, veremos robots de todos los colores y tamaños en todo el universo de Star Wars. Droide médico, droide obrero, droide archivador, e incluso droides cazarrecompensas, etc….

¿Qué clase de robot puede convertirse en cazarrecompensas, a menos que funcione para alguien más? Si trabaja por cuenta propia, ¿cuánto hay que empujar la inteligencia artificial y el libre albedrío de este droide para lograr tal excentricidad?.

La cuestión se plantea muy rápidamente en la película cuando Luke se lleva la almohadilla de seguridad de R2D2 y C3PO instalada por los Jawas, lo que permitirá a R2D2 ir en busca de Obi Wan Kenobi, su antiguo maestro. «Por pequeño que seas, no creo que puedas salvarte si te lo quito…» ¡Un grave error!.

Difícil ser un Robot

Así que tomemos los hechos uno por uno:

Los droides tienen maestros. Están programados y deben obedecer las órdenes que se les den. Y si su comportamiento puede mostrar una cierta personalidad, rápidamente se hace evidente que su libre albedrío puede ser restringido por medio de un simple «complot de seguridad». También es posible borrar su memoria y reprogramarlas, incluso para tareas que están originalmente fuera de su campo de competencia original.

Son considerados objetos, propiedades y pueden ser comprados o vendidos. Una vez más, los diferentes rasgos de personalidad que pueden surgir no mueven a la persona promedio. Peor aún, están prohibidos en algunos lugares, como en este bar Mos Eisley, donde Luke se reunirá con Han Solo y Chewbacca.

En una galaxia no tan lejana

Y en este sentido, el camino de la ficción se cruza con el de la realidad. Mientras hablamos de la aparición de la inteligencia artificial, muchos se preguntan cómo tendremos que gestionar esta inteligencia. ¿Cómo debemos considerar esta inteligencia?. ¿Una nueva especie?. ¿Una herramienta?. ¿Un peligro?.

Al igual que en la literatura o en el cine de género, los temores están muy extendidos, pero las opiniones difieren. Mientras que los robots de Star Wars son particularmente tranquilizadores, otras historias de ciencia ficción como Terminator o Matrix muestran una visión mucho más oscura del futuro; y uno se pregunta hacia cuál de estas dos opciones es más probable que nos dirijamos.

Tales historias deben haber influido mucho en la opinión pública sobre la posibilidad de un apocalipsis robótico. Asimov describió este comportamiento humano como el complejo de Frankenstein, que hace temer a la humanidad ser superada por sus propias criaturas; y este es el origen de las tres leyes de la robótica que se encuentran en sus escritos:

  1. Un robot no puede dañar a un ser humano ni, permaneciendo pasivo, permitir que un ser humano se exponga al peligro;
  2. Un robot debe obedecer las órdenes dadas por un ser humano, a menos que tales órdenes entren en conflicto con la primera ley;
  3. Un robot debe proteger su existencia siempre que esta protección no entre en conflicto con la primera o segunda ley.

Por lo tanto, al ser inmutables estas tres leyes, se suponía que los robots eran herramientas perfectamente seguras para los seres humanos. Sin embargo, estas leyes muestran rápidamente sus debilidades, que algunos tratarán de rectificar añadiendo nuevas leyes.

Sin embargo, este sistema de seguridad sigue siendo demasiado complejo para ser aplicado en el mundo real. De hecho, en este momento, los robots no pueden percibir a un ser humano de la misma manera que nosotros, y puede que nunca sean capaces de hacerlo.

En cierto modo, los robots que nos rodean hoy en día son demasiado simples o demasiado complejos para que las leyes ideadas por Asimov sean realmente aplicables tal como están. Es muy humano querer dar atributos, percepciones o comportamientos humanos a las cosas que te rodean, pero a menudo es un señuelo.

En efecto, la visión del mundo a través de los sensores y circuitos de un robot es muy diferente a la de un ser humano a través de sus ojos, su cerebro. ¿Y qué hay de la programación?. ¿Cómo codificar los términos «infringir» en el programa de una máquina y cómo garantizar que los términos informáticos utilizados se interpretan correctamente?. Ese es el meollo de la cuestión.

Robots Asesinos

Además, ¿qué ocurre con las máquinas que están intrínsecamente diseñadas para ir en contra de estos principios? Sin considerar necesariamente los estallidos de Hollywood que condujeron a una guerra entre humanos y máquinas, personalidades como Elon Musk, Steve Wozniak o Stephen Hawking siguen advirtiéndonos contra los asesinos de robots. El pasado mes de julio, fueron uno de los firmantes de una carta abierta en la que se pedía la prohibición total de estas armas autónomas.

« La inteligencia artificial ha llegado a un punto en el que el despliegue de tales sistemas será -materialmente, si no legalmente- factible dentro de unos pocos años, no décadas, y hay mucho en juego: las armas autónomas han sido descritas como la tercera revolución en las técnicas de guerra, después de la pólvora y las armas nucleares. »

Aunque esta carta abierta no condena la inteligencia artificial de forma estúpida y sin pensar en ella, invita a todos los actores del sector a actuar con la mayor cautela, con el fin de organizar un futuro en el que esta herramienta pueda ser utilizada de la mejor manera posible, en lugar de ser sometida a ella.

También podemos especular sobre el futuro de la inteligencia artificial, e imaginar que se está desarrollando hasta el punto de igualar o superar al espíritu humano. ¿Cómo debemos reaccionar?. ¿Debemos considerar esta máquina pensante como un ser de carne y hueso?.

¿Racismo Anti-Robot?

Aaron Sloman, filósofo e investigador en el campo de la inteligencia artificial, ha impulsado su pensamiento en esta dirección, y ha llegado a la siguiente conclusión, con respecto a las leyes de Asimov, que también es válida para cualquier otro tipo de legislación:

« Siempre pensé que las tres leyes eran bastante estúpidas: simplemente expresan una forma de racismo, o especismo.
Si un robot es tan inteligente como tú y yo, si ha estado en la Tierra tanto tiempo como tú y yo, si tiene tantos amigos y parientes como tú y yo (y eso va para los humanos, los extraterrestres inteligentes, o lo que sea), entonces no hay razón para que sea tratado bajo leyes diferentes a las que se nos imponen a ti y a mí. »
                                                                                         Aaron Sloman

Para citar otro ejemplo de un grupo focal sobre el tema, el 24 de septiembre, el equipo de la sección Pixel del periódico Le monde organizó el simulacro de juicio de Rick Deckard. La cuestión es si debe o no ser tratado como un ser humano, siempre que sea realmente un replicante. Un ejercicio divertido que podría inspirar a pensar más en el futuro.

Piense en ello la próxima vez que pague en una terminal de camino a la tienda, al cine o cuando esté en un tren de metro automático. Piensa en ello cuando veas una aspiradora o un robot mascota como Cozmo en la casa de tu amigo de alta tecnología (te invito a leer el artículo de David-Julien Rahmil sobre el juguete robot de Anki, página XX).

Las máquinas se están afianzando gradualmente en nuestro mundo, y aún no sabemos si la finalidad tenderá más hacia el tranquilizador universo de Star Wars, o el más contrastante de Blade Runner.

Un futuro incierto

Todavía hay muchas cuestiones éticas, y es precisamente porque todavía no hemos llegado a un punto crítico que es necesario que nos las planteemos.

Muchos investigadores ya tienen respuestas a las diversas cuestiones éticas que surgen. Por ejemplo, la cuestión de la responsabilidad en un accidente en el que se vean implicados vehículos sin conductor. ¿Deberíamos culpar al dueño del auto?. ¿Al fabricante?. ¿El programador?.

Si fue el coche el que tomó las decisiones que condujeron al accidente, será necesario, en ausencia de tres leyes implantadas en el sistema de máquinas, encontrar un marco legal eficaz. Puedes divertirte participando en la investigación: un grupo de estudiantes del MIT ha creado un sitio de encuestas (moralmachine.mit.edu), con el fin de alimentar una inteligencia artificial de coches autónomos, con las respuestas presentadas.

Han ido mejorando el sitio, lo que ahora también nos permite diseñar cuestiones morales y es una excelente manera de hacerse una idea de cómo piensa una máquina, para ser conscientes de los dilemas que inevitablemente surgirán.

Dejar respuesta

Please enter your comment!
Please enter your name here