logo-diario
Concordia
martes 3 de diciembre de 2024
martes 3 de diciembre de 2024
logo-diario
Director: Claudio Gastaldi
Concordia
martes 3 de diciembre de 2024
Nota escrita por: Ricardo Monetta
martes 9 de abril de 2024
martes 9 de abril de 2024

Israel recurre a la Inteligencia Artificial para los ataques en Gaza: La selección matemática de la muerte

El gobierno de Benjamín Netanyahu compite con su cómplice americano a la hora de cometer crímenes de lesa humanidad. Si faltaba una prueba concluyente, están las declaraciones de las mismas fuentes israelíes cuando revelan el uso del sistema "Lavender", basado en la Inteligencia Artificial (IA), que llegó a identificar a 37.000 "supuestos" miembros de grupos armados palestinos en la Franja.

Para matar a un simple miliciano de Hamas, al ejército israelí le parece lógico matar a 15 o 20 personas que se encuentran en las cercanías, y si se trata de un Jefe, les parece lógico también que puedan morir con él cien personas o más. Estos se los elimina con las llamadas «bombas tontas», de escasa precisión pero de enorme potencia, que hacen que el edificio se derrumbe sobre todos los habitantes.

Durante los seis meses de la ofensiva israelí sobre Gaza, el ejército de Israel ha estado usando una base de datos desconocida hasta el momento, que emplea la IA (Inteligencia Artificial), y de la que surgieron los nombres de 37 mil personas como «posibles» objetivos por sus vínculos «aparentes» con el grupo palestino Hamas, según la inteligencia israelí.

Estas fuentes de inteligencia, además de hablar sobre el sistema «Lavender», sostienen que oficiales del Ejército israelí han permitido la muerte de un número importante de civiles palestinos en los primeros meses del conflicto.

El periodista Yuval Abraham recogió el testimonio de seis oficiales de inteligencia, todos ellos implicados en el uso de IA para identificar objetivos de Hamas y de la Yihad Islámica Palestina en Gaza, para un reportaje en inglés en el medio independiente 972 Magazine y en Hebreo Local Cal. Estos testimonios fueron compartidos por el diario «The Guardian» de Londres en exclusiva antes de su publicación. Los testimonios son poco comunes por su sinceridad y ofrecen una mirada inusual de primera mano por los funcionarios de inteligencia.

Israel, con el empleo de potentes sistemas de IA en su enfrentamiento con Hamas, ha entrado en un terreno desconocido para la guerra moderna. Otro agente que usó Lavender cuestiona que los seres humanos fueran mejores en el proceso de selección de objetivos. «Yo», decía, «le dedicaba veinte segundos a cada objetivo, y hacía docenas de evaluaciones por día, como ser humano no aportaba ningún valor añadido; Lavender nos permite ahorrar tiempo».

«Lavender» fue desarrollado por la unidad 8.200, cuerpo de espionaje de élite de las Fuerzas de Defensa de Israel, comparable a la NSA, Agencia Nacional de Seguridad de los EEUU. Según varias de las fuentes, para autorizar el ataque contra varias categorías de objetivos, las FDI autorizaban de antemano un número estimado de muertes civiles considerado permisible y proporcionado.

Dos de las personas que dieron sus testimonios señalan que en las primeras semanas de guerra tenían «permitido» matar a 15 o 20 civiles durante ataques aéreos de bajo rango. Por lo general, los ataques contra ese tipo de objetivos se ejecutaban con municiones no guiadas denominadas «bombas tontas» que destruían casas enteras y mataban a todos los que se encontraban en su interior.

Uno de los agentes israelíes, que no se quiso identificar ante los periodistas antes mencionados, expresó: «No quieres gastar bombas caras en gente sin importancia, es muy caro para el país y hay escasez de esas bombas. Normalmente, ejecutábamos los ataques con las ‘bombas tontas’. Si un ataque es evitado, no importa. Pasás al objetivo siguiente; con la IA, los objetivos no se terminan nunca. Tienes otros 36.000 esperando».

Esto permitiría explicar el número escandaloso de muertos. Cerca de 33.000, incluidos 10.000 niños y mujeres.

En respuesta al reportaje de 972 Magazine y el Local Call, las FDI difundieron un comunicado en el que explicaban que habían respetado las normas de Derecho Internacional y que las bombas «tontas» eran un armamento estándar usado por los pilotos de FDI de manera que tengan un nivel alto de precisión.

En anteriores operaciones militares de las FDI, identificar como objetivos a personas solas solía ser un proceso más laborioso. De acuerdo a los testimonios que han brindado a The Guardian, en otras ofensivas, antes de incriminar a una persona o identificarlo como objetivo legítimo, había un debate y se contaba con la firma de un asesor jurídico. Pero este proceso, en las semanas siguientes al ataque del 7 de octubre, los comandantes exigían que descubrieran nuevos objetivos sin respetar la proporcionalidad de muerte de civiles.

Para satisfacer esa exigencia, las FDI dependían de Lavender para generar una base de datos con el nombre de personas que podían ser clasificadas como milicianos de Hamas o de la YIP. Lavender configuró una base de datos con el nombre de decenas de miles de personas marcadas como miembros de bajo «rango» del ala militar de Hamas. Esa base de datos se utilizaba junto a «Evangelio», otro sistema basado en la IA, para apoyar la toma de decisiones con la selección de edificios y estructuras como objetivos.

Antes de la guerra, tanto EEUU como Israel calculaban en 37.000 los miembros de Hamas.

En las fases más intensas de los bombardeos también se relajaron las normas de selección de los objetivos. Otra fuente, según The Guardian, reveló que había una política intolerante con respecto a las bajas civiles provocadas por las operaciones militares, que tenía un sabor de venganza. Otro oficial comentó: «En la guerra, estás dispuesto a asumir el margen de error de la inteligencia artificial, a arriesgarte a sufrir daños colaterales y que mueran civiles y arriesgarte a atacar por error y aprender a convivir con eso».

Las FDI establecieron números de civiles cuya muerte consideraban aceptables durante un ataque dirigido contra un solo militante de Hamas. El ratio variaba en función del rango del objetivo y había cambiado con el tiempo. 972 Magazine y Local Cal revelan que en un ataque contra un alto rango de Hamas, las fuerzas FDI consideraron posibles matar a 100 civiles (no es cuestión de cruzar el Rubicón y pasarse de esa cifra de indulgencia).

Según las fuentes, durante la guerra no hay tiempo para hacer una incriminación meticulosa de cada objetivo. Otra fuente señala que la proporción de los mandos militares consideraban aceptables ha ido variando según el curso de la guerra. El límite de las víctimas civiles subía y bajaba, y en un momento llegó a un mínimo de cinco. Durante la primera semana del conflicto, se estaba autorizado a matar a 15 no combatientes en Gaza para eliminar a un combatiente. Pero el principio de proporcionalidad no existía.

Expertos en Derecho Internacional Humanitario consultados por The Guardian han mostrado su preocupación por la posibilidad de que las FDI hayan permitido la muerte de 20 civiles por militantes de Hamas. Más allá de las justificaciones morales o legales del bombardeo israelí, algunos de sus agentes de inteligencia parecen estar cuestionando la estrategia de los comandantes. «Nadie pensó en qué hacer después de la guerra, ni cómo será posible vivir en Gaza. Si es que Gaza sigue existiendo».

Pero conociendo el pensamiento extremista y fundamentalista de Benjamín Netanyahu, solo quiero expresar el pensamiento de Bertrand Russell cuando se le preguntó cómo comenzó el fascismo. Contestó: «Primero fascinan a los tontos. Luego amordazan a los inteligentes».

Escribe aquí abajo lo que desees buscar
luego presiona el botón "buscar"
O bien prueba
Buscar en el archivo