Libros Recomendados

La ONG Airwars rechaza un informe del Pentágono que cifra en 23 los civiles muertos por los bombardeos de EE.UU. en 2020 y dice que ese número es mucho mayor.

Airwars subrayó el miércoles que las cifras de las víctimas civiles de los ataques aéreos que Estados Unidos lanzó el año pasado en Afganistán, Yemen, Irak, Somalia y Nigeria son muy superiores a la anunciada la misma jornada por el Departamento de Defensa estadounidense (Pentágono).

El grupo de vigilancia, con sede en el Reino Unido, que enumera a las víctimas civiles de los bombardeos aéreos en todo el mundo, afirmó que las estimaciones más conservadoras son 102 civiles muertos en operaciones estadounidenses en todo el mundo, cinco veces más de lo que admite el Pentágono.

El Departamento de Defensa estadounidense reivindicó su responsabilidad por la muerte de 23 civiles en 2020 en el mundo, de los que 20 ocurrieron en Afganistán, país donde EE.UU. lidera supuestamente la guerra más prolongada de su historia contra el terrorismo.

El informe del Pentágono agrega que un civil murió en Somalia en febrero de 2020 y otro en Irak en marzo. El documento no especifica dónde ocurrió el deceso de la víctima número 23 ni en qué fecha.

El documento estadounidense afirma también que los bombardeos aéreos de EE.UU. en total han dejado 65 muertos de 2017 a 2019, la mayoría de ellos en Siria y Yemen.

El documento revela además que el Pentágono en 2020 no pagó, ni un centavo, las indemnizaciones económicas a las familias de víctimas civiles.

Desde hace años, EE.UU. lleva a cabo una campaña de ataques aéreos en el marco de su supuesta lucha contra el terrorismo en varios puntos del planeta. Sin embargo, los críticos por ejemplo en Irak, Siria y Afganistán denuncian que Washington apoya en secreto a los terroristas para justificar su presencia ocupadora en la región de Asia Occidental, rica en recursos naturales.

Rise of the killer robot: un dron autónomo persiguió a un objetivo humano en Libia el año pasado y nadie habla de eso

Darius Shahtahmasebi*

La perspectiva de una guerra liderada con la IA se acerca cada vez más, y los eventos en Libia el año pasado son un ejemplo. A pesar de los pedidos de prohibición, los robots asesinos presentan una visión apocalíptica y aterradora del conflicto sin ley en el futuro.

Cuando estudiaba derecho internacional de los derechos humanos en la universidad hace casi una década, recuerdo que nuestro profesor afirmaba que los expertos anticipan que los entusiastas militares habrán desarrollado completamente la tecnología de robots asesinos en los próximos 20 años. Esas predicciones parecen ser bastante precisas hasta ahora, ya que los desarrollos recientes sugieren que estamos más o menos a la mitad de este camino, si no más.

Según un informe de 548 páginas de las Naciones Unidas visto por New Scientist , un dron armado “ letal ” puede, de hecho, haber “ cazado un objetivo humano ” sin que se lo pidieran, es decir, de forma completamente autónoma. Al parecer, un quadcopter Kargu-2 se encargó de buscar un objetivo humano durante una escaramuza entre las fuerzas del gobierno libio y los leales a su rival Khalifa Haftar en Libia en marzo del año pasado.

El Kargu, conocido como un 'dron merodeador', utiliza la identificación de objetos basada en el aprendizaje automático para determinar e involucrar a los objetivos. También tiene capacidades de enjambre , que permiten que hasta 20 drones trabajen juntos.

Los informes recientes  también señalan que el Kargu, dirigido a detonar en el impacto, estaba operando en un entorno que no requería un controlador humano y, posteriormente, apuntó a uno de los soldados de Haftar mientras intentaba retirarse. Si bien es técnicamente legal según las reglas del conflicto armado atacar a un soldado en retirada, me vienen a la mente al menos dos preguntas inmediatas.

En primer lugar, ¿puede un dron asesino diferenciar entre un soldado que se rinde y un combatiente que simplemente se retira? Y, en segundo lugar, ¿por qué demonios confiaríamos en un dron para hacer estas diferenciaciones de forma autónoma? ¿Podrías incluso rendirte al dron si quisieras?

La gente parece olvidar que la guerra tiene reglas. No puede ser simplemente una cuestión de encogernos de hombros y decir, 'bueno, íbamos a matar a estos pobres bastardos de todos modos, así que ¿por qué no mantener a nuestras propias tropas y pilotos a salvo en el proceso?' Si vamos a tomar en serio el derecho de los conflictos armados, debemos preguntarnos si realmente creemos que las armas totalmente autónomas son incluso capaces de cumplir con las leyes y normas humanitarias internacionales. Demonios, incluso Israel está acusado de violar estas reglas internacionales de forma rutinaria . Si el " ejército más moral del mundo” está en el negocio de destruir centros para discapacitados, campos de refugiados y sedes de medios internacionales, me estremezco al pensar de lo que podría ser capaz un robot autónomo.

Si no me cree, solo eche un vistazo a este extracto reciente del Boletín de los  Científicos Atómicos que describe brillantemente las fallas en depositar nuestra confianza en esta tecnología: “ OpenAI, una empresa de inteligencia artificial líder en el mundo, desarrolló un sistema que puede clasificar una manzana como Granny Smith con un 85,6 por ciento de confianza. Sin embargo, pegue una hoja de papel que diga "iPod" en la manzana y el sistema de visión artificial concluirá con un 99,7 por ciento de confianza en que la manzana es un iPod. En un caso , los investigadores de inteligencia artificial cambiaron un solo píxel en una imagen, lo que provocó que un sistema de visión artificial clasificara a un bombardero furtivo como un perro. En la guerra, un oponente podría simplemente pintar "autobús escolar" en un tanque o, más maliciosamente, "tanque" en un autobús escolar y potencialmente engañar a un arma autónoma".

Hasta donde sabemos, se sospecha que el incidente en Libia es la primera vez que un dron ataca a un humano sin recibir instrucciones para hacerlo. Como era de esperar, grupos de derechos humanos como Human Rights Watch han pedido el fin de la tecnología de " robots asesinos ", haciendo campaña para prohibir el desarrollo, la producción y el uso de estas armas. La ONU también ha debatido en el pasado la prohibición de esta tecnología. En ese momento, el secretario general de la ONU, Antonio Guterres, se refirió a las máquinas como " moralmente repugnantes ".

Incluso, según los informes, Elon Musk ha  pedido la prohibición del futuro de esta tecnología. Así es, Elon Musk, maníaco que manipula bitcoins y desprecia a los sindicatos, en realidad tiene una opinión sólida sobre lo que es un tema muy serio y aterrador. (Pero, dado su pasado, no se sorprenda si esta oposición decae una vez que obtiene los derechos exclusivos para desarrollar la tecnología o algo así).

Desafortunadamente, es poco probable que EE. UU. o cualquier otra parte que desarrolle esta tecnología preste atención a las llamadas y señales de advertencia en el corto plazo. En la última década, el ejército de los EE. UU. ha probado en numerosas ocasiones un  implante cerebral que permite a un operador humano controlar hasta tres drones simultáneamente utilizando solo sus mentes. Según el Marine Corps Times, el ejército de EE. UU. ha estado buscando promover un " enjambre de drones suicidas ", que le daría a un solo operador el control de 15 drones suicidas con una " carga mínima para el operador ". El ejército del Reino Unido también ha invertido significativamente en esta área.

Según  The Guardian , en la próxima década se espera que se compren más de 80.000 drones de vigilancia y casi 2.000 drones de ataque en todo el mundo. Resulta que los drones de ataque no son baratos, por lo que los estadounidenses tendrán que seguir en las listas de espera para recibir atención médica y viviendas asequibles, ya que Estados Unidos parece ser el principal comprador de tecnología de drones militares, y esto no se espera que cambie pronto.

Como he preguntado en el pasado, ¿qué debemos hacer exactamente cuando estos sistemas son pirateados o manipulados de alguna manera por ciberdelincuentes, rivales extranjeros, entidades terroristas y similares? Los grupos terroristas como el Estado Islámico han estado armando drones durante bastante tiempo. Hace cinco años, Paul Scharre, investigador principal y director del 20YY Future of Warfare Initiative Center for a New American Security,  publicó un informe advirtiendo sobre un “ riesgo novedoso muy severo de fratricidio masivo, con un gran número de armas dirigidas contra fuerzas amigas. " Sin embargo, nadie está escuchando.

Al final del día, a Estados Unidos apenas le preocupa el destino de grupos terroristas como el Estado Islámico. La verdadera razón por la que la tecnología de drones avanza en la aterradora dirección es para enfrentar a un enemigo y solo a un  enemigo: China.

O tal vez es sólo una coincidencia que hace apenas dos meses los EE.UU. publicó un ejercicio ágil Reaper junto con la Unidad Marítima, proporcionando apoyo aéreo cercano como los marines hicieron aterrizajes anfibios simulación “de isla en isla” (la estrategia de la Segunda Guerra Mundial del Pacífico de invadir uno isla tras otra). Una estrategia que, según advirtió Forbes , "solo parecería relevante para un conflicto con China".

* analista jurídico y político con sede en Nueva Zelanda que se centra en la política exterior de Estados Unidos en la región de Oriente Medio, Asia y el Pacífico.

CANAL

 

elespiadigital.com
La información más inteligente

RECOMENDAMOS