Presiones internacionales para prohibir los “robots asesinos” en operaciones de defensa activa

Publicado: 2022-01-02   Clicks: 1858

     Teoría general de la geopolítica

     Drones autónomos en el campo de batallaA finales de 2021, se desarrolló en Ginebra (Suiza) una reunión de delegados diferentes países adscritos a la ONU, en la que se debatió la necesidad de regular el uso de armas letales denominadas “robots asesinos”,  debido a que han aumentado las solicitudes de varios países, para proscribirlas.

     Quizás para los legos en la materia, se trataría de un desconocido cónclave de las Naciones Unidas, en el que algunos expertos en inteligencia artificial, estrategia militar, desarme y derecho humanitario atendieron una reunión de alto nivel.

    Pero, ¿cuál es la razón que estaría detrás del interés para regular o prohibir el uso en las operaciones militares de los robots asesinos, tales como drones, armas y bombas que dirigidos con cerebros artificiales deciden por su cuenta,  si van a atacar y matar, o que se debe hacer, o si se llega a hacer algo, en todos los casos con resultados letales?

     Aunque hace algunas décadas los robots asesinos eran parte de películas de ciencia ficción ahora son conocidos en términos técnicos como Sistemas de Armas Autónomas Letales, inventados y probados en forma acelerada y con poca supervisión, con la circunstancia agravante que se han usado algunos prototipos en conflictos reales.

     La evolución de estas máquinas letales de guerra, es considerada por los especialistas en el tema, como un evento trascendental para los conflictos armados, similar a la invención de la pólvora y las bombas nucleares.

     A finales de 2021, por primera vez, un alto número de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales (CCW, por su sigla en inglés) exteriorizó que se requieren restricciones para los robots asesinos. Pero como era de esperar, a esta propuesta se opusieron los estados miembros cuyos gobiernos están desarrollando estas armas, en especial Estados Unidos y Rusia.

      Por lo tanto, la citada convención finalizó el viernes 17 de diciembre de 2021,  con una vaga declaración respecto a considerar posibles medidas que sean aceptables para todos los Estados Miembros de la ONU. En consecuencia, una ONG que propugna por el desarme, denominada la Campaña para Detener a los Robots Asesinos, comentó que el resultado “no estuvo a la altura del rigor de la situación”.

      ¿Qué es y cómo opera la Convención sobre Ciertas Armas Convencionales (CCW)?

       También conocida como la Convención sobre Armas Inhumanas, la CCW es un ente adscrito a la ONU que determina el esquema de reglas para prohibir o restringir las armas que “se considera que provocan un daño innecesario, injustificable e indiscriminado”, tales como los explosivos incendiarios, los láseres cegadores y las bombas trampa que no distinguen entre combatientes y civiles, pero como se trata de un tema novedoso, por ahora, esta convención no tiene ninguna disposición para los robots asesinos.

      ¿Qué es lo que se denomina exactamente como “robots asesinos”?

       Aunque como suele suceder en temas de seguridad y estrategia, difieren las opiniones sobre una definición exacta de los “robots asesinos”, en general son consideradas armas que toman decisiones con poca, o ninguna participación de seres humanos para operarlos, debido a que se está posibilitando ese tipo de armamento producto de veloces mejorías en la robótica, la inteligencia artificial y el reconocimiento de imágenes.

       Es pertinente aclarar, que los drones que Estados Unidos ha usado en Afganistán, Irak y otros lugares no son considerados “robots asesinos” porque los operan personas que hacen parte de una cadena de mando oficial, y son ellos quienes eligen los blancos y deciden si deben disparar, luego de realizar un proceso de integración de inteligencia técnica, humana, estratégica, táctica y de combate.

      ¿Por qué se considera que los “robots asesinos” son atractivos para las operaciones militares?

      Para los estrategas militares y políticos que planean las guerras, la esperanza es que la investigación científica aporte armas, que prometan mantener a sus soldados fuera de peligro, y en las guerras actuales, que permitan tomar decisiones más rápido que los humanos, con el fin de dar más responsabilidades en el campo de batalla, a sistemas autónomos tales como drones sin piloto y tanques autónomos, que deciden de manera independiente cuándo atacar.

       ¿Cuáles son las objeciones más comunes a los “robots asesinos”?

       Los críticos de los “robots asesinos” arguyen que sin importar la sofisticación tecnológica, en términos morales, es repugnante encargarlos de la toma de decisiones letales. Por ejemplo, ¿Cómo puede una máquina diferenciar entre un adulto y un niño, un combatiente con una bazuca y un civil con una escoba, un combatiente hostil y un soldado herido o que se está rindiendo?

       Durante la reciente convención de CCW en Ginebra, Peter Maurer presidente del Comité Internacional de la Cruz Roja (CICR) y adversario manifiesto de los robots asesinos aseguró que en esencia, a nivel ético, a la sociedad le preocupa que los sistemas de armas autónomas sustituyan a los seres humanos, en el momento de tomar decisiones de vida o muerte con sensores, software y procesos mecanizados.

       Por su parte, Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de Harvard, solicitaron al unísono, que para el empleo de “robots asesinos”, se adopte un acuerdo jurídicamente vinculante que exija el control humano en todo momento, porque los robots carecen de la compasión, la empatía, la misericordia y el juicio necesarios para tratar a los seres humanos con humanidad, por lo tanto, no pueden entender el valor inherente de la vida humana.

       Otros contradictores al uso de “robots asesinos” afirmaron que las armas autónomas, en lugar de reducir el riesgo de guerra, podrían hacer lo contrario, al proporcionar a los antagonistas formas de infligir daño que minimicen los riesgos para sus propios soldados.

       ¿Por qué fue importante la conferencia de Ginebra en diciembre de 2021?

       En general, para los expertos en temas de seguridad nacional, geopolítica y desarme, la conferencia de diciembre de 2021 en Ginebra, es considerada como la mejor oportunidad escenificada hasta el momento, con el fin de idear mecanismos que regulen o prohíban el uso de los “robots asesinos” por las razones enunciadas.

       Aunque no hubo resultados concretos y ni siquiera los expertos pudieron llegar a un acuerdo en cuestiones básicas, este evento fue la culminación de varios años de debate de un grupo de analistas, a quienes se solicitó que identificaran desafíos y posibles estrategias para reducir las amenazas de los “robots asesinos”.

      ¿Qué dicen quienes se oponen a un nuevo tratado que incluya “robots asesinos”?

      Algunos Estados como Rusia, insisten en que todas las decisiones sobre los límites del uso de armas deben ser unánimes, habilidosa estratagema muy propia de Putin y su consuetudinaria doctrina “soviética” de negociar mediante la coacción o la trampa,  pues en la práctica veta de inmediato a quienes se oponen al uso de los “robots asesinos”.

      Desde su orilla, el gobierno de Estados Unidos aduce que las actuales leyes internacionales bastan y que sería prematuro prohibir desarrollos de tecnología de armas autónomas. En consecuencia, Joshua Dorosin delegado de la Casa Blanca en la convención, propuso un “código de conducta no vinculante para el uso de los robots asesinos”, idea que los defensores del desarme desestimaron al considerarla una táctica dilatoria, propia de la histórica diplomacia estadounidense.

      Según las versiones de los opositores a los sistemas de armas, el ejército de Estados Unidos ha invertido ingentes recursos en inteligencia artificial, por medio de contratos con poderosos contratistas de defensa, tales como Lockheed Martin, Boeing, Raytheon y Northrop Grumman. Los contratos incluyen proyectos para desarrollar misiles de largo alcance que detectan objetivos en movimiento basándose en la radiofrecuencia, drones enjambre que pueden identificar y atacar un objetivo, y sistemas automatizados de defensa de misiles.

Con base en estos criterios, la complejidad y los diversos usos de la inteligencia artificial hacen que sea más difícil de regular que las armas nucleares o las minas terrestres.

       ¿Hay algún tipo de conflicto en las instituciones tradicionales de defensa sobre los “robots asesinos”?

      Sí hay conflictos. Aunque la tecnología es cada día más avanzada, ha habido reticencia a usar las armas autónomas en combate por temor a los errores, comenzado por que los comandantes militares no confían en el juicio de los sistemas de armas autónomas.

      El debate sobre el desarrollo de las armas autónomas llegó hasta Silicon Valley. En 2018, Google manifestó que no renovaría un contrato con el Pentágono, después de que miles de sus empleados firmaron una carta en la que protestaron en contra de la participación de la empresa en un programa de defensa, que empleaba inteligencia artificial para interpretar imágenes que podían ser utilizadas para la elección de los blancos de los drones.

     Debido a esto, Google diseñó nuevos lineamientos éticos que prohíben el uso de su tecnología para fabricar armas o actividades de vigilancia.

     Sin embargo, otras personas creen que Estados Unidos no está haciendo lo suficiente para competir con sus rivales.

      En octubre de 2021, Nicolas Chaillan exdirector de software de la Fuerza Aérea comentó a The Financial Times que había renunciado a su cargo, porque consideraba débil el progreso tecnológico militar estadounidense, en particular el uso de la inteligencia artificial y agregó que los cuestionamientos éticos detienen a los responsables frente a la toma de decisiones políticas, mientras que países como China y Rusia perseveran en estas actividades sin detenerse en miramientos éticos o morales.

       ¿En qué lugares se han usado las armas autónomas?

       No existen muchos ejemplos verificados del uso de armas autónomas en el campo de batalla, pero los analistas se centran en algunos incidentes que demuestran el potencial de la tecnología.

       En marzo de 2021, investigadores de la ONU señalaron que en Libia, fuerzas con respaldo del gobierno libio utilizaron un “sistema de armas autónomas letales” contra milicianos sunitas rebeldes. Un dron denominado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes cuando huían de un ataque con misiles, pero no se aclaró si esos drones fueron controlados por algún ser humano.

       En 2020, durante la guerra en el Alto Karabaj, las Fuerzas de Azerbaiyán combatieron contra las tropas de Armenia con drones de ataque y misiles que circulaban en el espacio, hasta que detectaban la señal de un blanco asignado. Pero aún no está claro, si esos drones eran totalmente autónomos o eran controlados desde centros de comando.

      ¿Qué viene en torno a los “robots asesinos”?

      Aunque con base en el criterio de la evidencia se supone que la CCW no está a la altura de la tarea, también se rumora que la convención de diciembre de 2021 en Ginebra aportó insumos para que la ONU presione durante los próximos años, el diseño de un nuevo tratado, similar a los que prohíben las minas terrestres y las bombas de racimo.

      Y mil especulaciones más.

      Lo cierto y palpable es que las potencias no han cesado ni van a cesar la investigación científica permanente para mejorar la capacidad operacional de las tropas, preservar la integridad de la fuerza, privar al adversario de los recursos necesarios, golpear su estrategia y negarle acceso a terreno crítico.

      La disuasión ha demostrado ser la forma más efectiva para minimizar la capacidad ofensiva del adversario actual o potencial. Y el desarrollo tecnológico y científico son esenciales para aumentar el poder relativo de combate de la fuerza propia. Por ende, los llamados “robots asesinos” no solo son armas letales, son mecanismos de disuasión.

      Vistas estas consideraciones, ninguno puede ceder espacio, ni confiar de buena fe que el apaciguamiento conduce a la paz. Una vez más se corrobora el adagio latino: “Si vis pacem para bellum”. Si quieres la paz prepárate para la guerra.

     Teniente coronel Luis Alberto Villamarin Pulido

      Autor de 40 libros de estrategia, defensa nacional y geopolítica

      www.luisvillamarin.com

Reciba gratis noticias, articulos y entrevistas

* indicates required

Maintained and Created by: { lv10 }

LuisVillamarin.com, 2015©