Es sabido que la marina estadounidense ocupa una gran cantidad de robots de guerra para distintas labores, como desmantelación de bombas, espionaje táctico e incluso ataques no tripulados. Esto nunca ha significado un gran riesgo (aparte del riesgo que implica que los gringos sean muy trigger happy), ya que en la gran mayoría de estas acciones los robots no se mandan solos y están operados por militares humanos. Lo espectacular y terrible a la vez es que ya hay proyectos para desarrollar robots de guerra con IA avanzada que permitiría hacer funcionar al robot independientemente. Naturalmente, esto significa la aparición de nuevos dilemas ético y un estudio de la Universidad Politécnica de California advierte sobre los riesgos y obstáculos que hay que superar. Después de todo a nadie le gustaría que un robot te tocara el hombro y te diga «Hasta la vista, baby».
Investigadores han estado averiguando los posibles riesgos de desplegar Robots autónomos en el campo de batalla y han liberado el primer estudio serio sobre ética robótica militar. La ética debe ser probablemente el mayor problema, junto con la ley, que impide implementar estos avanzados sistemas de defensa, debido a bastantes interrogantes como por ejemplo ¿Quién podrá juzgar a un robot por crímenes de guerra? ¿O quién se asegurará que actúe mesuradamente y no provoque una masacre?
Pese a lo anterior, el Congreso Estadounidense ya ha aprobado 2 polémicos planes de Defensa, que pretenden tener UAV’s (Vehículos Aéreos No Tripulados) operativos para combate el 2010 y dejar totalmente independientes de control humano algunos de sus Vehículos de Combate terrestre. Estos avisos han generado alarma sobre un posible escenario catastrófico (¿alguien dijo Skynet?) y nos hacen preguntarnos la realidad de que tecnológicamente esto sea posible.
El principal problema es que la inteligencia artificial actualmente no es precisamente «inteligencia», lo que significa que nuestros amigos robots podrían actuar de una forma inesperada, como por ejemplo aplicando friendly fire (o sea atacar a los de su propio bando) o confundir enemigos con civiles. Más aún con cientos de programadores trabajando en miles de líneas de código, cuando ni siquiera ellos tienen claro de que se trata esto.
La posible solución entregada por el Dr. Patrick Lin, experto en ética futurística (¿en qué universidad enseñarán esa carrera?), es que se les «enseñe» desde sus inicios a estos robots lo correcto y lo incorrecto, o sea enseñarles que significa una guerra ética. Uno de los más graves problemas que se tendrían que enfrentar, serían los potenciales ataques terroristas que reprogramen a los robots, borrándoles su Etica OS 1.0 con el que vendrían programados desde fábrica y haciendo que entonces obedezcan sus «maquiavélicos» planes. Además, aparece el ya mencionado tema sobre si es posible juzgar a un robot por atrocidades como crímenes de guerra o aplicación de fuerza desmesurada. Quedándonos sólo en esos aspectos, la situación es relativamente fácil cuando el robot está dirigido por un humano, pero se complica cuando el robot está trabajando de forma autónoma. Es rídiculo pensar en un robot sentado en una corte siendo formalizado por crímenes a la humanidad. (¿No se acuerdan de un par de escenas de Yo, Robot con Will Smith?).
Volviendo a la realidad, pese a que no es totalmente autónomo, el MQ-9 Reaper fue el primer Hunter-Killer (Así se les llama a los UAV que son capaces de buscan, identificar y posteriormente destruir un objetivo asignado) diseñado para vuelos de alta duración y altitud.
Personalmente creo que si bien existen obstáculos como los señalados anteriormente, no tiene comparación una muerte humana con una robótica, y además actualmente se trabaja en proyectos que están reduciendo riesgos, como el MAARS que ocupa avanzados sistemas de posicionamento global para reducir el riesgo del Friendly Fire. El tema es muy complicado, la guerra ha existido y va a existir siempre me guste o no me guste, por lo que es difícil dar un veredicto objetivo sobre el tema. Probablemente tengas una opinión respecto a este delicado y polémico asunto, ¿Qué crees? ¿Es el futuro de la guerra la utilización de Robots? ¿Estamos próximos a un escenario como el que hemos visto en muchas películas de ciencia ficción como Terminator? Analizando los pro y los contras, ¿Qué prefieres, Bots v/s Bots, Humanos v/s Humanos, Bots v/s Humanos, chicas contra chicas en una piscina de barro, Intel v/s AMD?