Defense One, 8 oct 2013. Científicos, ingenieros y creadores de políticas están buscando maneras para que los drones se puedan usar mejor y más inteligentemente, de forma más precisa y menos dañina para los civiles, con mayor alcance y poder de permanencia. Un método que está en desarrollo es el de aumentar la autonomía del dron en sí. Eventualmente, los drones podrían tener la habilidad técnica de tomar decisiones letales autónomamente: responder a una serie de estímulos programada, elegir un objetivo y disparar sus armas sin que un humano revise o verifique el resultado. La idea de que el ejército de EEUU despliegue un robot letal autónomo, o LAR por sus siglas en inglés, genera controversia. Además de que la autonomía pueda dirigirse a algunos de los puntos negativos actuales sobre el uso de los drones, introducen nuevos problemas para los creadores de políticas con los cuales apenas están aprendiendo a lidiar. La concepción básica detrás de un LAR es que puede desempeñarse y pensar mejor que un operador humano. “Si un sistema de dron es lo suficientemente sofisticado, podría ser menos emocional, más selectivo y capaz de proveer fuerza en un modo que logre alcanzar un objetivo táctico con el menor daño”, dijo el Profesor de la Universidad de Purdue, Samuel Liles. “Un robot letal autónomo puede apuntar mejor, elegir blancos mejor, seleccionar mejor, y en general ser una mejor posesión con los paquetes de ISR [inteligencia, vigilancia y reconocimiento] que puede ejecutar”. A pesar de que el paso para los ataques de drones ha disminuido – solo 21 han atacado Pakistán en 2013, contra 122 en 2010 de acuerdo a la Fundación Nueva América – los vehículos no tripulados se mantienen siendo un elemento básico de la caja de herramientas estadounidense de contrainsurgencia. Pero los drones tienen vulnerabilidades internas que los planeadores militares aún no han enfrentado. El año pasado, por ejemplo, un ingeniero aeroespacial le dijo al Comité de Seguridad Nacional que con equipo poco costoso podría interferir en el dron hackeandolo y secuestrarlo con propósitos maliciosos. Los drones han sido hackeables por años. En 2009, los funcionarios de defensa dijeron a los reporteros que las milicias apoyadas por Irán usaron $26 dólares de software de escritorio para interceptar las grabaciones de video de drones sobrevolando Irak. Y en 2011, se reportó que un virus había infectado algunos sistemas de control de drones en la Base Militar Aérea Creech en Nevada, llevando a preocupaciones de seguridad sobre los vehículos aéreos no tripulados. Puede ser que la única manera para hacer que un dron sea verdaderamente seguro es permitiéndole tomar sus propias decisiones sin un controlador humano: si no recibe comandos desde fuera, entonces no se puede hackear (al menos no fácilmente). Y ahí es donde los LAR podrían ser más atractivos. Aunque todavía no existen, y no son posibles con la tecnología actual, los LAR son sujetos de fuertes debates en los círculos académicos, militares y políticos. Aún así, muchos tratan su desarrollo como de inevitable. Pero, ¿qué tan prácticos pueden ser los LAR en el campo de batalla? Heather Roff, una profesora visitante en la Universidad de Denver, dijo que muchos conflictos, tales como una guerra civil en Siria, son demasiado complejos para los LAR. “Una cosa es usarlos en un conflicto convencional”, en dónde grandes fuerzas militares luchan lejos de las ciudades, “pero tendemos a pelear batallas asimétricas. Y las intervenciones son solo campañas militares – los efectos civiles importan”. Roff dice que debido a que los LAR no son lo suficientemente sofisticados para distinguir de manera importante entre civiles y militantes en un ambiente complejo y urbano, probablemente no serían efectivos para lograr un fin militar constructivo – tan solo por como la población civil reaccionaría ante una máquina autónoma que dispara sus armas en su ciudad. “La idea de que podrías solucionar esa crisis con un arma robótica es ingenua y peligrosa”, dijo ella. Es improbable que cualquier sistema de armas autónomo sea usado por la milicia, excepto en circunstancias extraordinarias, argumenta Will McCants, un miembro del Centro Brookings Saban y director de su proyecto sobre Relaciones de Estados Unidos con el Mundo Islámico. “Puedes imaginar un escenario”, dice, “en el que los aviones LAR cacen misiles superficie-aire como parte de una campaña para destruir las defensas aéreas de Siria”. Retiraría el riesgo de los pilotos estadounidenses mientras atacan exclusivamente equipo de guerra que no tiene propósito civil”. Pero es improbable que esta campaña suceda alguna vez. “Finalmente el personal de seguridad nacional”, dijo, refiriéndose al personal que conforma a los funcionarios y asesores del Consejo de Seguridad Nacional, “no quiere dejar el control del conflicto”. La política de la decisión para desplegar cualquier tipo de armamento autónomo importa tanto como la capacidad tecnológica misma. “Con un sistema autónomo, las consecuencias de fracaso son peores en la mente del público. Hay algo sobre el error humano que hace que la gente se sienta más cómoda con el daño colateral si una persona lo hace” dice McCants. Eso no quiere decir que alguien esté verdaderamente cómodo con el daño colateral. “Preferirían tener este tipo de decisiones y ser capaces de adjudicarlo al error humano”, dijo McCants. Dejando de lado los asuntos políticos, B.J. Strawser, profesor asistente de la Escuela de Posgrado Naval, dice que los LAR simplemente no podrían ser usados efectivamente en un lugar como Siria. “Necesitarías reglas de enfrentamiento [ROE por sus siglas en inglés] extremadamente cuidadosas y restrictivas, y me preocupa que cualquiera pudiera llevarlo a cabo efectivamente, ya sea un arma autónoma o no”, dijo. “No creo que ningún actor, humano o no, sea capaz de llevar a cabo las ROE refinadas y precisas que permitan una intervención que sea de ayuda en Siria”.
|