Ataques con asistencia de IA en la Franja de Gaza

Summary

Como parte de la guerra de Gaza, las Fuerzas de Defensa de Israel (FDI) han utilizado inteligencia artificial para realizar de forma rápida y automática gran parte del proceso de determinar qué objetivos bombardear. Israel ha ampliado enormemente los bombardeos de la Franja de Gaza, que en guerras anteriores se habían visto limitados por la falta de objetivos de la Fuerza Aérea israelí.

Estas herramientas incluyen Gospel, una IA que revisa automáticamente datos de vigilancia en busca de edificios, equipos y personas que se cree que pertenecen al enemigo y, al encontrarlos, recomienda objetivos de bombardeo a un analista humano que luego puede decidir si pasarlos al campo. Otra es Lavender, una "base de datos impulsada por IA" que enumera a decenas de miles de hombres palestinos vinculados por IA a Hamás o la Jihad Islámica Palestina, y que también se utiliza para la recomendación de objetivos.

Los críticos han argumentado que el uso de estas herramientas de IA pone en riesgo a los civiles, desdibuja la responsabilidad y da lugar a una violencia militarmente desproporcionada que viola el derecho internacional humanitario.

Habsora

editar

Israel utiliza un sistema de inteligencia artificial denominado "Habsora" ("Evangelio", "Gospel" en inglés), para determinar qué objetivos podría bombardear la Fuerza Aérea israelí.[1]​ Proporciona automáticamente una recomendación de orientación a un analista humano,[2][3]​ quien decide si transmitirla a los soldados en el campo. [3]​ Las recomendaciones pueden referirse a cualquier cosa, desde combatientes individuales, lanzacohetes, puestos de mando de Hamás [2]​ hasta casas particulares de presuntos miembros de Hamás o de la Jihad Islámica. [4]

La IA puede procesar información mucho más rápido que los humanos.[5][6]​ El teniente general retirado Aviv Kohavi, jefe de las Fuerzas de Defensa de Israel hasta 2023, declaró que el sistema podría producir 100 objetivos de bombardeo en Gaza por día, con recomendaciones en tiempo real sobre cuáles atacar, mientras que los analistas humanos podrían producir 50 al año.[7]​ Un profesor entrevistado por NPR estimó estas cifras en 50 a 100 objetivos en 300 días para 20 oficiales de inteligencia, y 200 objetivos en un plazo de 10 a 12 días para Habsora.[8]

Antecedentes tecnológicos

editar

Las inteligencias artificiales, a pesar del nombre, no son capaces de pensar ni de tener conciencia,[9]​ ya que son máquinas desarrolladas para automatizar tareas que los humanos realizan con inteligencia a través de otros medios. Habsora utiliza el aprendizaje automático,[10]​ donde una IA tiene la tarea de identificar puntos en común en grandes cantidades de datos (por ejemplo, exploraciones de tejido canceroso, fotos de una expresión facial, vigilancia de miembros de Hamás identificados por analistas humanos) y luego buscar esos puntos en común en material nuevo.[11]

No se sabe qué información utiliza Habsora, pero se cree que combina datos de vigilancia de diversas fuentes en enormes cantidades.[12][13][14]

Las recomendaciones se basan en la comparación de patrones. Una persona con suficientes similitudes con otras personas etiquetadas como combatientes enemigos puede ser etiquetada como combatiente.[15]

En cuanto a la idoneidad de las IA para la tarea, NPR citó a Heidy Khlaaf, directora de ingeniería de AI Assurance en la firma de seguridad tecnológica Trail of Bits, quien afirmó: «Los algoritmos de IA presentan fallas notorias, con altas tasas de error observadas en aplicaciones que requieren precisión, exactitud y seguridad».[8]​ Bianca Baggiarini, profesora del Strategic and Defence Studies Centre (Centro de Estudios Estratégicos y de Defensa) de la Universidad Nacional Australiana, escribió que las IA son «más efectivas en entornos predecibles donde los conceptos son objetivos, razonablemente estables y coherentes internamente». Contrastó esto con distinguir entre un combatiente y un no combatiente, algo que ni siquiera los humanos con frecuencia pueden hacer.[16]

Khlaaf continuó señalando que las decisiones de un sistema de este tipo dependen enteramente de los datos con los que está entrenado, y no se basan en razonamiento, evidencia fáctica o causalidad, sino únicamente en probabilidad estadística. [17]

Operación

editar

La IAF se quedó sin objetivos que atacar [18]​ en el conflicto de 2014 y el de 2021.[19]​ En una entrevista en France 24, el periodista de investigación Yuval Abraham del +972 Magazine declaró que para mantener la presión militar, y debido a la presión política para continuar la guerra, los militares bombardearían los mismos lugares dos veces.[20]​ Desde entonces, la integración de herramientas de IA ha acelerado significativamente la selección de objetivos.[21]​ A principios de noviembre, las FDI declararon que la división de administración de objetivos [22]​ que utiliza Habsora había identificado más de 12.000 objetivos en Gaza.[2]​ NPR escribió el 14 de diciembre que no estaba claro sobre cuántos objetivos Habsora se había actuado, pero que el ejército israelí dijo que actualmente estaba atacando hasta 250 objetivos por día.[8]​ Los bombardeos también se habían intensificado a un ritmo que el artículo del 14 de diciembre calificó de asombroso:[23]​ el ejército israelí declaró en ese momento que había atacado más de 22.000 objetivos dentro de Gaza,[23]​ a un ritmo diario de más del doble que el del conflicto de 2021,[24]​ más de 3.500 de ellos desde el colapso de la tregua el 1 de diciembre. [23]​ Al principio de la ofensiva, el jefe de la Fuerza Aérea declaró que sus fuerzas sólo atacaban objetivos militares, pero agregó: "No estamos siendo quirúrgicos ". [25]

Una vez que se acepta una recomendación, otra IA, Fire Factory,[26]​ reduce el tiempo de preparación del ataque de horas a minutos [27]​ calculando cargas de munición, priorizando y asignando objetivos a aeronaves y drones y proponiendo un cronograma, [28]​ según un artículo de Bloomberg anterior a la guerra que describía dichas herramientas de IA como diseñadas para una confrontación militar y una guerra por poderes con Irán. [27]

Un cambio que notó The Guardian es que dado que los principales líderes de Hamás desaparecían en túneles al inicio de una ofensiva, sistemas como Gospel habían permitido a las FDI localizar y atacar a un grupo mucho más grande de operativos de Hamás de menor rango. El informe citó a un funcionario que trabajó en la toma de decisiones sobre los objetivos en operaciones anteriores en Gaza, quien dijo que si bien las casas de los miembros jóvenes de Hamás no habían sido previamente blanco de bombardeos, el funcionario creía que las casas de presuntos operativos de Hamás ahora eran blanco de ataques sin importar su rango. [29]​ En la entrevista con France 24, Abraham caracterizó esto como la habilitación de la sistematización del lanzamiento de una bomba de 2000 libras (900 kilos) en una casa para matar a una persona y a todos los que estaban a su alrededor, algo que anteriormente se había hecho con un grupo muy pequeño de altos dirigentes de Hamás.[30]​ NPR citó un informe de la revista +972 y su publicación hermana Local Call que afirman que el sistema se está utilizando para fabricar objetivos para que las fuerzas militares israelíes pudieran seguir bombardeando Gaza a un ritmo enorme, castigando a la población palestina en general. NPR señaló que no había verificado esto y que no estaba claro cuántos objetivos estaban siendo generados solo por IA, pero que había habido un aumento sustancial en los objetivos, con un enorme costo para los civiles. [31]

En principio, la combinación de la velocidad de una computadora para identificar oportunidades y el criterio humano para evaluarlas puede permitir ataques más precisos y menos víctimas civiles.[32]​ El ejército y los medios de comunicación israelíes han hecho hincapié en que se minimice el daño a los no combatientes.[17][33]​ Richard Moyes, investigador y director de la ONG Article 36, señaló "el aniquilamiento generalizado de una zona urbana con armas explosivas pesadas" para cuestionar estas afirmaciones,[33]​ mientras que Lucy Suchman, profesora emérita de la Universidad de Lancaster, describió el bombardeo como "destinado a la máxima devastación de la Franja de Gaza".[8]

The Guardian escribió que cuando se autorizó un ataque contra casas privadas de personas identificadas como operativos de Hamás o la Jihad Islámica, los investigadores del objetivo sabían de antemano el número esperado de civiles muertos, cada objetivo tenía un archivo que contenía una puntuación de daños colaterales que estipulaba cuántos civiles probablemente morirían en un ataque,[34]​ y según una fuente militar israelí de alto rango, los operativos utilizan una medición "muy precisa" de la tasa de civiles que evacúan un edificio poco antes de un ataque: "Usamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, un amarillo, un rojo, como una señal de tráfico".[33]

Uso en 2021

editar

Kohavi comparó la división de objetivos que utilizaba Habsora con una máquina y afirmó que una vez que se activó en el Conflicto entre la Franja de Gaza e Israel de 2021 generó 100 objetivos al día, de los cuales la mitad fueron atacados, en contraste con los 50 objetivos en Gaza por año antes.[35]​ De los 1.500 objetivos que Israel atacó en Gaza durante la guerra, aproximadamente 200 provenían de Habsora,[24]​ incluyendo objetivos estáticos y móviles según el ejército.[36]

El informe posterior a la acción del Jewish Institute for National Security Affairs identificó un problema, afirmando que el sistema tenía datos sobre lo que era un objetivo, pero carecía de ellos sobre lo que no lo era.[37]​ El sistema dependía completamente de datos de entrenamiento[17]​ y la información que los analistas humanos habían examinado y considerado que no constituía un objetivo había sido descartada, con el riesgo de sesgo algorítmico. El vicepresidente expresó su esperanza de que esto se hubiera solucionado.[36]

Organización

editar

Habsora es utilizado por la división de administración de objetivos militares (o Dirección de Objetivos),[3][38]​ que se formó en 2019 en la dirección de inteligencia de las FDI[22]​ para abordar el problema de que la fuerza aérea se estaba quedando sin objetivos para bombardear,[18]​ y que Kohavi describió como "impulsada por capacidades de IA" e incluyendo a cientos de oficiales y soldados.[35]​ Además de su papel en tiempos de guerra, The Guardian escribió que había ayudado a las Fuerzas de Defensa de Israel a construir una base de datos de entre 30.000 y 40.000 presuntos militantes en los últimos años, y que sistemas como Habsora habían desempeñado un papel fundamental en la creación de listas de individuos cuyo asesinato se autorizaba.[22]

Lavender

editar

The Guardian definió a Lavender como una base de datos impulsada por inteligencia artificial, según los testimonios de seis oficiales de inteligencia dados a +972 Magazine / Local Call y compartidos con The Guardian. Los seis dijeron que Lavender había jugado un papel central en la guerra, procesando rápidamente datos para identificar a posibles contrincantes jóvenes que serían blanco de ataques, y en un momento dado llegó a enumerar hasta 37.000 hombres palestinos vinculados por AI a Hamás o a la Yihad Islámica Palestina. [39]​ Los detalles del funcionamiento de Lavender o cómo llega a sus conclusiones no están incluidos en los informes publicados por +972 / Local Call, pero después de que se descubrió que una muestra de la lista tenía un índice de precisión del 90%, las FDI aprobaron el uso generalizado de Lavender para recomendar objetivos. Según los oficiales, se utilizó junto con Habsora, que apuntaba a edificios y estructuras en lugar de a individuos.[40]

Citando múltiples fuentes, el Guardian escribió que en guerras anteriores la identificación de alguien como objetivo legítimo se discutía y luego era aprobada por un asesor legal y que, después del 7 de octubre, el proceso se aceleró drásticamente, hubo presión para más objetivos y, para satisfacer la demanda, las FDI llegaron a depender en gran medida de Lavender para obtener una base de datos de individuos que se consideraba que tenían las características de un militante de la Yihad Islámica Palestina o de Hamás.[41]The Guardian citó a una fuente: «En esta etapa, dedicaba 20 segundos a cada objetivo y realizaba docenas de ellos al día. No aportaba ningún valor añadido como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo».[42]​ Una fuente que justificó el uso de Lavender para ayudar a identificar objetivos de bajo rango dijo que en tiempos de guerra no hay tiempo para realizar un proceso de identificación minucioso con cada objetivo y que, en lugar de invertir personal y tiempo en un militante joven, «uno está dispuesto a asumir el margen de error que supone usar inteligencia artificial».[43]

Las FDI emitieron una declaración en la que afirmaban que algunas de las afirmaciones presentadas carecíann de fundamento, mientras que otras reflejaban una comprensión errónea de las directivas de las FDI y del derecho internacional, y que las FDI no utilizaban un sistema de inteligencia artificial que identifica a agentes terroristas o intentara predecir si una persona era terrorista. Los sistemas de información serían simplemente uno de los tipos de herramientas que ayudan a los analistas a reunir y analizar de forma óptima la inteligencia de varias fuentes para el proceso de identificación de objetivos militares y, de acuerdo con las directivas de las FDI, los analistas deben realizar exámenes independientes para verificar que los objetivos cumplan con las definiciones pertinentes de acuerdo con el derecho internacional y las restricciones adicionales de las directivas de las FDI. [44]

La declaración continuó diciendo que el "sistema" en cuestión no es un sistema, ni una lista de operativos militares confirmados elegibles para atacar, solo una base de datos para cruzar fuentes de inteligencia con el fin de producir capas de información actualizadas sobre los operativos militares de organizaciones terroristas.[45]

Connotaciones éticas y legales

editar

Los expertos en ética, IA y derecho internacional humanitario han criticado el uso de dichos sistemas de IA desde una perspectiva ética y legal, argumentando que violan principios básicos del derecho internacional humanitario, como la necesidad militar, la proporcionalidad y la distinción entre combatientes y civiles.[46]

Acusaciones de bombardeo de viviendas

editar

The Guardian citó los testimonios de oficiales de inteligencia publicados por +972 y Local Call, quienes dijeron que los hombres palestinos vinculados al ala militar de Hamás eran considerados objetivos potenciales independientemente de su rango o importancia,[47]​ y los miembros de bajo rango de Hamás y PLJ serían atacados preferentemente en casa, y uno de ellos dijo que el sistema fue construido para buscarlos en estas situaciones cuando atacar sería mucho más fácil.[48]​ Dos de las fuentes dijeron que los ataques a militantes de bajo rango se llevaban a cabo típicamente con bombas tontas, destruyendo casas enteras y matando a todos los que estaban allí, y una de las fuentes dijo que no se deben desperdiciar bombas costosas que escasean en personas sin importancia.[49]​ Citando a expertos en conflictos anónimos, el Guardian escribió que si Israel ha estado usando bombas tontas para destruir las casas de miles de palestinos que estaban vinculados con la asistencia de AI a grupos militantes en Gaza, esto podría ayudar a explicar lo que el periódico llamó el sorprendentemente alto número de muertos en la guerra.[50]​ Un funcionario israelí, hablando con +972, declaró también que el programa israelí ¿Where's Daddy?" rastreaba a presuntos militantes hasta que regresaban a casa, momento en el que "las Fuerzas de Defensa de Israel los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia".[51]

La respuesta de las FDI a la publicación de los testimonios afirmaba que, a diferencia de Hamás, estaban comprometidas con el derecho internacional y solo atacaban objetivos y operativos militares, haciéndolo de acuerdo con la proporcionalidad y las precauciones, y que examinaban e investigaban exhaustivamente las excepciones;[52]​ que un miembro de un grupo armado organizado o un participante directo en las hostilidades es un objetivo legítimo según el derecho internacional humanitario y la política de todos los países respetuosos de la ley;[53]​ que "realizan diversos esfuerzos para reducir el daño a los civiles en la medida de lo posible en las circunstancias operativas vigentes en el momento del ataque"; que eligen la munición adecuada de acuerdo con consideraciones operativas y humanitarias; que las municiones aéreas sin un kit de guía de precisión integrado son armamento estándar desarrollado por los ejércitos; que los sistemas de a bordo de las aeronaves utilizados por pilotos entrenados garantizan una alta precisión de dichas armas; y que la gran mayoría de las municiones que utilizan son guiadas con precisión.[54]

Las viviendas de familias también fueron alcanzadas en el sur del Líbano, en una zona residencial de Bint Jbeil murieron, por ejemplo, dos hermanos, Ibrahim Bazzi Ali y Ahmed Bazzi (27), y la esposa de Ibrahim, Shorouq Hammond.[55]​ Los hermanos eran ambos ciudadanos australianos, Ali vivía allí pero Ibrahim estaba de visita desde Sídney para traer a su esposa a su casa en Australia.[56][55]Hezbolá afirmó que Ali era uno de sus combatientes,[57][58]​ y también incluyó a los miembros civiles de la familia en un funeral de Hezbolá.[59]

Alegaciones de límites de muertes de civiles previamente autorizadas

editar

Según los testimonios, las FDI impusieron límites previamente autorizados al número de civiles que podían matar con el fin de matar a un militante de Hamás. The Guardian citó a +972 y Local Call para explicar cómo este número era superior a 100 para los altos funcionarios de Hamás, y una de las fuentes dijo que había un cálculo de cuántos civiles podrían morir para un comandante de brigada, cuántos para un comandante de batallón, y así sucesivamente. Uno de los oficiales dijo que, en el caso de los militantes jóvenes, esa cifra era de 15 en la primera semana de la guerra y en un momento dado llegó a ser tan baja como cinco. Otro dijo que habían sido hasta 20 civiles no involucrados por cada agente, sin importar su rango, relevancia militar o edad.[60]The Guardian escribió que los expertos en derecho internacional humanitario que hablaron con el periódico expresaron su alarma.[61]

La respuesta de las FDI decía que sus procedimientos requieren evaluar la ventaja militar prevista y el daño colateral para cada objetivo, que dichas evaluaciones se hacen de manera individual, no categórica, que las FDI no llevan a cabo ataques cuando el daño colateral es excesivo en relación con la ventaja militar,[62]​ y que las FDI rechazan rotundamente la afirmación sobre cualquier política de matar a decenas de miles de personas en sus hogares.[63]

Límites de la revisión humana

editar

The Guardian citó a Moyes diciendo que un comandante a quien se le entrega una lista de objetivos generada por computadora puede no saber cómo se generó la lista o no ser capaz de cuestionar las recomendaciones de objetivos, y está en peligro de perder la capacidad de considerar significativamente el riesgo de daño a civiles.[46]

En un artículo de opinión en Le Monde, la periodista Élise Vincent escribió que las armas automatizadas se dividen en sistemas totalmente automatizados, que en realidad no están en el mercado, y armas autónomas letales, que en principio permiten el control humano, y que esta división permite a Israel afirmar que Habsora cae del lado del uso más apropiado de la fuerza. Citó a Laure de Roucy-Rochegonde, investigadora del Instituto Francés de Relaciones Internacionales, quien dijo que la guerra podría dejar obsoletas estas categorías borrosas y vigorizar una definición regulatoria más estricta, un control humano significativo, que los activistas de derechos humanos, incluido el Article 36, han estado tratando de defender. Citó a De Roucy-Rochegonde diciendo que no se sabe qué tipo de algoritmo utiliza el ejército israelí, o cómo se han agregado los datos, lo que no sería un problema si no condujeran a una decisión de vida o muerte. [64]

Sesgo de automatización

editar

Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo, señaló que los humanos en la interacción humana corren el riesgo de sufrir un "sesgo de automatización": una dependencia excesiva de los sistemas, lo que les otorga demasiada influencia sobre las decisiones que deben tomar los humanos. [46]

Lucy Suchman observó que el enorme volumen de objetivos probablemente esté ejerciendo presión sobre los revisores humanos, afirmando que «ante este tipo de aceleración, dichas revisiones se ven cada vez más limitadas en cuanto al tipo de juicio que las personas realmente pueden ejercer».[65]​ Tal Mimran, profesor de la Universidad Hebrea de Jerusalén, quien anteriormente trabajó con el gobierno en el ámbito de la selección de objetivos, añadió que la presión aumentará la probabilidad de que los analistas acepten las recomendaciones de la IA, independientemente de si son correctas, y podrían verse tentados a simplificarse la vida siguiendo las recomendaciones de la máquina, lo que podría generar un nuevo nivel de problemas si la máquina identifica erróneamente los objetivos sistemáticamente.[65]

Responsabilidad

editar

Khlaaf señaló la dificultad de exigir responsabilidades cuando hay IA involucradas. Los humanos conservan la culpabilidad, pero ¿quién es responsable si el sistema de selección falla y es imposible atribuir el fallo a un error de una sola persona? El artículo de NPR continuaba: "¿Es el analista quien aceptó la recomendación de la IA? ¿Los programadores que crearon el sistema? ¿Los agentes de inteligencia que recopilaron los datos de entrenamiento?" [65]

Reacciones

editar

El Secretario General de las Naciones Unidas, Antonio Guterres, dijo que estaba “profundamente preocupado” por los informes de que Israel utilizó inteligencia artificial en su campaña militar en Gaza, diciendo que la práctica pone en riesgo a los civiles y desdibuja la responsabilidad.[66]​ Al hablar sobre el sistema Lavender, Marc Owen Jones, profesor de la Universidad Hamad Bin Khalifa, afirmó: «Seamos claros: este es un genocidio asistido por IA y, de ahora en adelante, es necesario pedir una moratoria sobre el uso de IA en la guerra».[67]​ Ben Saul, informante especial de las Naciones Unidas, afirmó que, si los informes sobre el uso de inteligencia artificial por parte de Israel fueran ciertos, «muchos ataques israelíes en Gaza constituirían crímenes de guerra por lanzar ataques desproporcionados».[68]​ Ramesh Srinivasan, profesor de la UCLA, afirmó: «Las grandes empresas tecnológicas estadounidenses están en realidad alineadas con muchas de las acciones del ejército israelí. El hecho de que se estén utilizando sistemas de IA indica que hay una falta de respeto por parte del Estado israelí. Todos saben que estos sistemas de IA cometerán errores».[69]

Véase también

editar

Referencias

editar
  1. Lee, Gavin (12 de diciembre de 2023). «Understanding how Israel uses 'Gospel' AI system in Gaza bombings». France24. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. 
  2. a b c Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Habsora es, de hecho, uno de los varios programas de IA que utiliza la inteligencia israelí, según Tal Mimran, profesor de la Universidad Hebrea de Jerusalén, quien ha trabajado para el gobierno israelí en la selección de objetivos durante operaciones militares anteriores. Otros sistemas de IA recopilan grandes cantidades de datos de inteligencia y los clasifican. El último sistema que recomienda objetivos a un analista humano es Habsora,. Estos objetivos pueden ser cualquier cosa, desde combatientes individuales hasta equipos como lanzacohetes o instalaciones como puestos de mando de Hamás.» 
  3. a b c Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Una breve entrada de blog del ejército israelí, publicada el 2 de noviembre, explica cómo se está utilizando el Gospel en el conflicto actual. Según la publicación, la Dirección de Objetivos del ejército utiliza Gospel para generar rápidamente objetivos basándose en la información de inteligencia más reciente. El sistema proporciona una recomendación de objetivo a un analista humano, quien decide si la transmite a los soldados en el terreno. "No se trata simplemente de un sistema automático", enfatiza Misztal. "Si considera que encuentra algo que podría ser un objetivo potencial, lo marca para que un analista de inteligencia lo revise". La publicación afirma que la división de objetivos puede enviar estos objetivos a la Fuerza Aérea Israelí (FAI) y a la Armada, y directamente a las fuerzas terrestres a través de una aplicación conocida como "Pillar of Fire", que los comandantes llevan en sus teléfonos inteligentes y otros dispositivos militares.» 
  4. Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «Varias fuentes familiarizadas con los procesos de selección de objetivos de las FDI confirmaron la existencia del Evangelio al +972/Llamada local, diciendo que había sido utilizado para producir recomendaciones automatizadas para atacar objetivos, como las casas privadas de individuos sospechosos de ser operativos de Hamás o la Jihad Islámica.» 
  5. Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Los algoritmos pueden analizar grandes cantidades de datos de inteligencia mucho más rápido que los analistas humanos, afirma Robert P. Ashley Jr., exdirector de la Agencia de Inteligencia de Defensa de EE. UU. El uso de IA para ayudar en la selección de objetivos tiene el potencial de dar a los comandantes una enorme ventaja. "Tomarás decisiones más rápido que tu oponente, de eso se trata", afirma.» 
  6. Baggiarini, Bianca (8 de diciembre de 2023). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Los militares y soldados enmarcan su toma de decisiones mediante lo que se denomina el "ciclo OODA" (observar, orientar, decidir, actuar). Un ciclo OODA más rápido puede ayudarles a superar al enemigo. El objetivo es evitar ralentizar las decisiones por una deliberación excesiva y, en cambio, adaptarse al ritmo acelerado de la guerra. Por lo tanto, el uso de la IA se justifica potencialmente por su capacidad para interpretar y sintetizar enormes cantidades de datos, procesarlos y generar resultados a velocidades que superan con creces la cognición humana.» 
  7. Baggiarini, Bianca (8 de diciembre de 2023). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. 
  8. a b c d Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. 
  9. Mueller, John Paul; Massaron, Luca (2016). Machine Learning For Dummies®. Hoboken, New Jersey: John Wiley & Sons. ISBN 978-1-119-24551-3. «El aprendizaje automático se basa en algoritmos para analizar enormes conjuntos de datos. Actualmente, el aprendizaje automático no puede proporcionar el tipo de IA que presentan las películas. Ni siquiera los mejores algoritmos pueden pensar, sentir, mostrar ninguna forma de autoconciencia ni ejercer el libre albedrío.» 
  10. Baggiarini, Bianca (8 de diciembre de 2024). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «¿Cómo produce el sistema estos objetivos? Lo hace mediante el razonamiento probabilístico que ofrecen los algoritmos de aprendizaje automático. Los algoritmos de aprendizaje automático aprenden a través de los datos. Aprenden buscando patrones en grandes cantidades de datos, y su éxito depende de la calidad y cantidad de estos. Hacen recomendaciones basadas en probabilidades. Las probabilidades se basan en la coincidencia de patrones. Si una persona tiene suficientes similitudes con otras personas etiquetadas como combatientes enemigos, también podría ser etiquetada como combatiente.» 
  11. Mueller, John Paul; Massaron, Luca (2016). Machine Learning For Dummies®. Hoboken, New Jersey: John Wiley & Sons. ISBN 978-1-119-24551-3. «El secreto del aprendizaje automático reside en la generalización. El objetivo es generalizar la función de salida para que funcione con datos que no pertenecen al conjunto de entrenamiento. Por ejemplo, considere un filtro de spam. Su diccionario contiene 100 000 palabras (en realidad, un diccionario pequeño). Un conjunto de datos de entrenamiento limitado de 4000 o 5000 combinaciones de palabras debe crear una función generalizada que pueda detectar spam en las 2^100 000 combinaciones que la función detectará al trabajar con datos reales.» 
  12. Inskeep, Steve. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «El sistema se llama Gospel. Básicamente, toma una enorme cantidad de datos de vigilancia, los procesa y emite recomendaciones sobre dónde deberían atacar los militares.» 
  13. Davies, Harry; McKernan, Bethan; Sabbagh, Dan (Diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «Se desconoce con precisión qué tipos de datos se incorporan Gospel. Sin embargo, los expertos afirman que los sistemas de apoyo a la toma de decisiones basados en IA para la selección de objetivos suelen analizar grandes conjuntos de información procedentes de diversas fuentes, como imágenes de drones, comunicaciones interceptadas, datos de vigilancia e información extraída del seguimiento de los movimientos y patrones de comportamiento de individuos y grandes grupos.» 
  14. Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Aunque no se sabe con exactitud qué datos utiliza Gospel para formular sus sugerencias, es probable que provengan de una amplia variedad de fuentes. La lista incluye elementos como mensajes de celular, imágenes satelitales, grabaciones de drones e incluso sensores sísmicos, según Blaise Misztal, vicepresidente de políticas del Instituto Judío para la Seguridad Nacional de Estados Unidos, un grupo que facilita la cooperación militar entre Israel y Estados Unidos.» 
  15. Baggiarini, Bianca (8 de diciembre de 2024). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «¿Cómo produce el sistema estos objetivos? Lo hace mediante el razonamiento probabilístico que ofrecen los algoritmos de aprendizaje automático. Estos algoritmos aprenden de los datos. Buscan patrones en grandes cantidades de datos, y su éxito depende de la calidad y cantidad de estos. Formulan recomendaciones basadas en probabilidades. Estas probabilidades se basan en la coincidencia de patrones. Si una persona tiene suficientes similitudes con otras personas etiquetadas como combatientes enemigos, también podría ser etiquetada como combatiente.» 
  16. Baggiarini, Bianca (8 de diciembre de 2024). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Algunos afirman que el aprendizaje automático permite una mayor precisión en la selección de objetivos, lo que facilita evitar dañar a personas inocentes y usar una fuerza proporcional. Sin embargo, la idea de una selección más precisa de objetivos en los ataques aéreos no ha tenido éxito en el pasado, como lo demuestra el elevado número de víctimas civiles, declaradas y no declaradas, en la guerra global contra el terrorismo. Además, la diferencia entre un combatiente y un civil rara vez es evidente. Incluso los humanos con frecuencia no pueden distinguir quién es y quién no es un combatiente. La tecnología no cambia esta verdad fundamental. A menudo, las categorías y conceptos sociales no son objetivos, sino controvertidos o específicos de un tiempo y lugar. Pero la visión artificial, junto con los algoritmos, es más eficaz en entornos predecibles donde los conceptos son objetivos, razonablemente estables y coherentes internamente.» 
  17. a b c Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «El ejército israelí no respondió directamente a las preguntas de NPR sobre Gospel. En la publicación del 2 de noviembre, afirmó que el sistema permite al ejército "producir objetivos para ataques precisos contra infraestructuras asociadas con Hamás, a la vez que causa grandes daños al enemigo y daños mínimos a quienes no están involucrados", según un portavoz anónimo. Sin embargo, los críticos cuestionan si Gospel y otros sistemas de IA asociados realmente funcionan como afirman los militares. Khlaaf señala que la inteligencia artificial depende completamente de datos de entrenamiento para tomar sus decisiones. "La naturaleza de los sistemas de IA es proporcionar resultados basados en inferencias y correlaciones estadísticas y probabilísticas a partir de datos históricos, y no en ningún tipo de razonamiento, evidencia fáctica o causalidad", afirma.» 
  18. a b Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 December 2023. Consultado el 6 de abril de 2025. «La división de objetivos se creó para abordar un problema crónico de las FDI: en operaciones anteriores en Gaza, la fuerza aérea se quedaba repetidamente sin objetivos que atacar. Dado que los altos mandos de Hamás desaparecían en túneles al inicio de cualquier nueva ofensiva, según fuentes, sistemas como el Gospel permitían a las FDI localizar y atacar a un grupo mucho mayor de operativos de menor rango. Un oficial, que trabajó en la toma de decisiones sobre objetivos en operaciones anteriores en Gaza, afirmó que las FDI no habían atacado previamente las viviendas de miembros de menor rango de Hamás. Añadió que creían que esto había cambiado en el conflicto actual, ya que ahora las casas de presuntos operativos de Hamás son blanco de ataques, independientemente de su rango.» 
  19. Lee, Gavin (12 de diciembre de 2023). «Understanding how Israel uses 'Gospel' AI system in Gaza bombings». France24. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Yuval Abraham: "Ahora, fuentes con las que he hablado que han operado Gospel y han servido en ese centro [...] dijeron que el uso de inteligencia artificial está siendo una tendencia creciente en el ejército porque en el pasado, el ejército se quedó sin objetivos en 2014 y 2021.» 
  20. Lee, Gavin (12 de diciembre de 2023). «Understanding how Israel uses 'Gospel' AI system in Gaza bombings». France24. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Yuval Abraham: Una fuente recordó cómo, por ejemplo, en 2021 y 2014, se quedaron sin objetivos. No les quedaba nada que bombardear. Solo quedaba material de calidad. Pero existía presión política para continuar la guerra. Era necesario mantener la presión en Gaza. Una fuente recordó cómo en 2014 bombardeaban los mismos lugares dos veces. Con inteligencia artificial, con automatización, se pueden crear tantos objetivos, a menudo dedicando menos de un minuto a un objetivo que, al final, está matando familias, ¿sabes? Eso permite continuar las guerras, a menudo incluso con fines políticos, durante mucho más tiempo que antes.» 
  21. Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. 
  22. a b c Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «A principios de noviembre, las Fuerzas de Defensa de Israel (FDI) afirmaron que su división de administración de objetivos había identificado más de 12.000 objetivos en Gaza. Las actividades de esta división, creada en 2019 en la dirección de inteligencia de las FDI, son clasificadas. Sin embargo, un breve comunicado en el sitio web de las FDI afirmaba que utilizaban un sistema basado en inteligencia artificial llamado Habsora (Gospel, en español) en la guerra contra Hamás para «producir objetivos rápidamente» [...] En los últimos años, la división de objetivos ha ayudado a las FDI a crear una base de datos de entre 30.000 y 40.000 presuntos militantes, según fuentes. Sistemas como Gospel, según afirmaron, habían desempeñado un papel fundamental en la elaboración de listas de personas autorizadas a ser asesinadas.» 
  23. a b c Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «El ritmo es asombroso: tras los brutales ataques de militantes liderados por Hamás el 7 de octubre, las fuerzas israelíes han atacado más de 22.000 objetivos dentro de Gaza, una pequeña franja de tierra a lo largo de la costa mediterránea. Desde que se rompió la tregua temporal el 1 de diciembre, la Fuerza Aérea de Israel ha atacado más de 3.500 objetivos.» 
  24. a b Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Un informe de la publicación israelí +972 Magazine y el medio en hebreo Local Call afirma que el sistema se está utilizando para fabricar objetivos que permitan a las fuerzas militares israelíes seguir bombardeando Gaza a un ritmo desmesurado, castigando a la población palestina en general. NPR no ha verificado estas afirmaciones de forma independiente, y no está claro cuántos objetivos se están generando actualmente solo con IA. Sin embargo, según las propias cifras del ejército israelí, se ha producido un aumento sustancial en los objetivos. En el conflicto de 2021, Israel afirmó haber atacado 1.500 objetivos en Gaza, de los cuales aproximadamente 200 provenían dGospel. Desde el 7 de octubre, el ejército afirma haber atacado más de 22.000 objetivos dentro de Gaza, una tasa diaria de más del doble que en el conflicto de 2021. El número de víctimas civiles palestinas ha sido enorme.» 
  25. Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «El ejército israelí no ha ocultado la intensidad de sus bombardeos sobre la Franja de Gaza. En los primeros días de la ofensiva, el jefe de su fuerza aérea habló de implacables ataques aéreos "las 24 horas del día". Sus fuerzas, dijo, solo atacaban objetivos militares, pero añadió: "No estamos siendo quirúrgicos".» 
  26. Noah Sylvia (4 de julio de 2024). Royal United Services Institute, ed. «The Israel Defense Forces' Use of AI in Gaza: A Case of Misplaced Purpose». Consultado el 7 de abril de 2025. «Se desconoce si los sistemas de aprendizaje automático (ML) de las FDI se utilizan durante la fase de planificación operativa o durante la selección dinámica de objetivos. En teoría, los sistemas podrían incorporar ROE [ rules of engagement=reglas de enfrentamiento] para predecir el impacto de un ataque para un analista, similar a los informes sobre Lavender y «Fire Factory». Las FDI también afirman que los modelos generan CDE [collateral death estimates=estimaciones de muertes colaterales], cuya precisión, dada la sofisticación de la inteligencia israelí, no cabe dudar, independientemente de si la genera un experto humano o una máquina.» 
  27. a b Newman, Marissa (16 de julio de 2023). «Israel Quietly Embeds AI Systems in Deadly Military Operations». Bloomberg. Consultado el 6 de abril de 2025. «En los últimos meses, Israel ha estado emitiendo advertencias casi a diario a Irán sobre su enriquecimiento de uranio, prometiendo que no permitirá que el país obtenga armas nucleares bajo ninguna circunstancia. Si ambos entran en una confrontación militar, las Fuerzas de Defensa de Israel (FDI) prevén que las fuerzas iraníes en Gaza, Siria y Líbano tomarían represalias, lo que sentaría las bases para el primer conflicto serio en múltiples frentes para Israel desde que un ataque sorpresa de Egipto y Siria hace 50 años desencadenó la Guerra de Yom Kipur. Las herramientas basadas en IA, como Fire Factory, están diseñadas para este escenario, según oficiales de las FDI. "Lo que antes tomaba horas ahora toma minutos, con unos minutos más para la revisión humana", declaró el coronel Uri, jefe de la unidad de transformación digital del ejército [...]. "Con la misma cantidad de personal, hacemos mucho más".» 
  28. Newman, Marissa (16 de julio de 2023). «Israel Quietly Embeds AI Systems in Deadly Military Operations». Bloomberg. Consultado el 7 de abril de 2025. «Aunque el ejército no hace comentarios sobre operaciones específicas, las autoridades afirman que ahora utiliza un sistema de recomendación de IA que puede procesar grandes cantidades de datos para seleccionar objetivos para ataques aéreos. Los ataques subsiguientes pueden configurarse rápidamente con otro modelo de inteligencia artificial llamado Fire Factory, que utiliza datos sobre objetivos aprobados por el ejército para calcular las cargas de munición, priorizar y asignar miles de objetivos a aeronaves y drones, y proponer un cronograma.» 
  29. Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «La división de objetivos se creó para abordar un problema crónico de las FDI: en operaciones anteriores en Gaza, la fuerza aérea se quedaba repetidamente sin objetivos que atacar. Dado que los altos mandos de Hamás desaparecían en túneles al inicio de cualquier nueva ofensiva, según fuentes, sistemas como el Gospel permitían a las FDI localizar y atacar a un grupo mucho mayor de operativos de menor rango. Un oficial, que trabajó en la toma de decisiones sobre objetivos en operaciones anteriores en Gaza, afirmó que las FDI no habían atacado previamente las viviendas de miembros de menor rango de Hamás. Añadió que creía que esto había cambiado en el conflicto actual, ya que ahora se atacan las casas de presuntos operativos de Hamás, independientemente de su rango.» 
  30. Lee, Gavin (12 de diciembre de 2023). «Understanding how Israel uses 'Gospel' AI system in Gaza bombings». France24. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Yuval Abraham: "De lo que hablamos es de una política de lanzar una bomba de dos mil libras sobre una casa para asesinar a una persona, ¿de acuerdo? Ahora bien, en el pasado, imaginen antes de la inteligencia artificial y la automatización, se hacía eso, por ejemplo, para un grupo muy pequeño de líderes de alto rango de Hamás, matándolos y matando conscientemente a todos los que los rodeaban [...] al automatizar ese proceso, cuando se necesita atacar cientos y miles de objetivos, se puede hacer de forma sistemática..."». 
  31. Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «Un informe de la publicación israelí +972 Magazine y el medio en hebreo Local Call afirma que el sistema se está utilizando para fabricar objetivos que permitan a las fuerzas militares israelíes seguir bombardeando Gaza a un ritmo desmesurado, castigando a la población palestina en general. NPR no ha verificado estas afirmaciones de forma independiente, y no está claro cuántos objetivos se están generando actualmente solo con IA. Sin embargo, según las propias cifras del ejército israelí, se ha producido un aumento sustancial en los objetivos. En el conflicto de 2021, Israel afirmó haber atacado 1.500 objetivos en Gaza, de los cuales aproximadamente 200 provenían del Evangelio. Desde el 7 de octubre, el ejército afirma haber atacado más de 22.000 objetivos dentro de Gaza, una tasa diaria de más del doble que en el conflicto de 2021. El número de víctimas civiles palestinas ha sido enorme.» 
  32. Baggiarini, Bianca (8 de diciembre de 2024). «Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?». The Conversation. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «En principio, los sistemas de aprendizaje automático pueden permitir ataques más precisos y menos víctimas civiles.» 
  33. a b c Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «En una breve declaración de las Fuerzas de Defensa de Israel (FDI) sobre su división de objetivos, un alto oficial afirmó que la unidad "realiza ataques precisos contra la infraestructura asociada con Hamás, infligiendo grandes daños al enemigo y mínimos a los no combatientes". La precisión de los ataques recomendada por el "banco de objetivos de la IA" ha sido enfatizada en múltiples informes de los medios israelíes. El diario Yedioth Ahronoth informó que la unidad "se asegura, en la medida de lo posible, de que no se produzcan daños a los civiles no involucrados". Una exfuente militar israelí de alto rango declaró a The Guardian que los operativos utilizan una medición "muy precisa" de la tasa de civiles que evacuan un edificio poco antes de un ataque. "Utilizamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, un amarillo, un rojo, como una señal de tráfico". "Observen el panorama físico de Gaza", dijo Richard Moyes, investigador que dirige Artículo 36, un grupo que lucha por reducir el daño causado por las armas. “Estamos presenciando el aniquilamiento generalizado de una zona urbana con armas explosivas pesadas, por lo que afirmar que se ejerce una fuerza precisa y limitada no se basa en los hechos”.» 
  34. Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «Varias fuentes dijeron a The Guardian y a +972/Local Call que cuando se autorizaba un ataque contra casas particulares de individuos identificados como operativos de Hamás o la Jihad Islámica, los investigadores del objetivo sabían de antemano el número de civiles que se esperaba que murieran. Cada objetivo, dijeron, tenía un archivo que contenía una puntuación de daños colaterales que estipulaba cuántos civiles probablemente murieran en un ataque.» 
  35. a b Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 6 de abril de 2025. «Aviv Kochavi, quien se desempeñó como jefe de las Fuerzas de Defensa de Israel (FDI) hasta enero, afirmó que la división de objetivos está "impulsada por capacidades de IA" e incluye a cientos de oficiales y soldados. En una entrevista publicada antes de la guerra, afirmó que era "una máquina que produce grandes cantidades de datos con mayor eficacia que cualquier humano y los convierte en objetivos para atacar". Según Kochavi, "una vez activada esta máquina" en la guerra de 11 días entre Israel y Hamás en mayo de 2021, generó 100 objetivos al día. "Para ponerlo en perspectiva, antes producíamos 50 objetivos en Gaza al año. Ahora, esta máquina produce 100 objetivos al día, y el 50 % de ellos son atacados".» 
  36. a b Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 6 de abril de 2025. «El grupo de Misztal documentó una de las primeras pruebas dGospel, durante el conflicto de 2021 en Gaza entre Israel y los grupos militantes Hamás y la Yihad Islámica. Según informes de prensa y declaraciones del propio ejército, Israel utilizó Gospel y otros programas de IA para identificar posibles objetivos, como lanzacohetes. El sistema se empleó para identificar objetivos estáticos y móviles a medida que aparecían en el campo de batalla. Según informes de prensa, identificó alrededor de 200 objetivos en el conflicto. Pero no estuvo exento de problemas. El informe posterior a la acción del grupo de Misztal señaló que, si bien la IA contaba con abundantes datos de entrenamiento sobre lo que constituía un objetivo, carecía de datos sobre aspectos que los analistas humanos habían decidido que "no" eran objetivos. El ejército israelí no había recopilado los datos de objetivos que sus analistas habían descartado, por lo que el entrenamiento del sistema había sido sesgado. "Han pasado dos años desde entonces, así que es algo que, con suerte, han podido corregir", afirma Misztal.» 
  37. «Gaza Conflict 2021 Assessment: Observations and Lessons». Consultado el 7 de abril de 2025. 
  38. Leshem, Ron (30 de junio de 2023). «IDF possesses Matrix-like capabilities, ex-Israeli army chief says». Ynetnews. Consultado el 7 de abril de 2025. )
  39. McKernan, Bethan (3 de abril de 2024). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por IA, no revelada previamente, que en un momento dado identificó 37.000 objetivos potenciales basándose en sus aparentes vínculos con Hamás, según fuentes de inteligencia implicadas en la guerra. El testimonio de los seis oficiales de inteligencia, todos ellos implicados en el uso de sistemas de IA para identificar objetivos de Hamás y la Yihad Islámica Palestina (YIP) en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la publicación israelí-palestina "+972 Magazine" y el medio en hebreo "Local Call". Sus testimonios se compartieron en exclusiva con The Guardian antes de su publicación. Los seis afirmaron que Lavender había desempeñado un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente a posibles operativos "subalternos" que serían los objetivos. Cuatro de las fuentes afirmaron que, en un momento dado al comienzo de la guerra, Lavender enumeró hasta 37.000 hombres palestinos que habían sido vinculados por el sistema de IA con Hamás o la Yihad Islámica Palestina (YIP).» 
  40. McKernan, Bethan (3 de abril de 2024). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Los detalles sobre los tipos específicos de datos utilizados para entrenar el algoritmo de Lavender, o cómo el programa llegó a sus conclusiones, no se incluyen en los relatos publicados por +972 o Local Call. Sin embargo, las fuentes afirmaron que, durante las primeras semanas de la guerra, la Unidad 8200 perfeccionó el algoritmo de Lavender y ajustó sus parámetros de búsqueda. Tras un muestreo aleatorio y la verificación cruzada de sus predicciones, la unidad concluyó que Lavender había alcanzado una tasa de precisión del 90 %, según las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como herramienta de recomendación de objetivos. Lavender creó una base de datos de decenas de miles de personas, marcadas principalmente como miembros de bajo rango del ala militar de Hamás, añadieron. Esta se utilizó junto con otro sistema de apoyo a la toma de decisiones basado en IA, llamado Gospel, que recomendaba edificios y estructuras como objetivos en lugar de individuos.» 
  41. McKernan, Bethan (3 de abril de 2024). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «En operaciones militares anteriores de las FDI, la producción de objetivos humanos solía ser un proceso más laborioso. Varias fuentes que describieron a The Guardian el desarrollo de objetivos en guerras anteriores afirmaron que la decisión de "incriminar" a un individuo, o identificarlo como un objetivo legítimo, se debatía y luego era aprobada por un asesor legal. En las semanas y meses posteriores al 7 de octubre, este modelo de aprobación de ataques contra objetivos humanos se aceleró drásticamente, según las fuentes. A medida que se intensificaban los bombardeos de las FDI sobre Gaza, afirmaron, los comandantes exigieron un flujo continuo de objetivos. "Nos presionaban constantemente: 'Tráigannos más objetivos'. Nos gritaban con vehemencia", declaró un oficial de inteligencia. "Nos decían: 'Ahora tenemos que joder a Hamás, cueste lo que cueste. Bombardeen todo lo que puedan". Para satisfacer esta demanda, las FDI recurrieron en gran medida a Lavender para generar una base de datos de individuos con características de militantes de la Yihad Islámica Palestina o de Hamás.» 
  42. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. 
  43. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Otra fuente, que justificó el uso de Lavender para identificar objetivos de bajo rango, afirmó que «cuando se trata de un militante de bajo rango, no conviene invertir personal ni tiempo en ello». Añadió que, en tiempos de guerra, no había tiempo suficiente para incriminar cuidadosamente a cada objetivo. «Así que uno está dispuesto a asumir el margen de error que supone usar inteligencia artificial, arriesgarse a daños colaterales y a la muerte de civiles, y a arriesgarse a atacar por error, y a vivir con ello», añadió.» 
  44. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Algunas de las afirmaciones planteadas en sus preguntas carecen de fundamento, mientras que otras reflejan una comprensión errónea de las directivas de las FDI y del derecho internacional. Tras el atentado mortífero perpetrado por la organización terrorista Hamás el 7 de octubre, las FDI han estado operando para desmantelar las capacidades militares de Hamás [...] El proceso de identificación de objetivos militares en las FDI consta de diversos tipos de herramientas y métodos, incluyendo herramientas de gestión de la información, que se utilizan para ayudar a los analistas de inteligencia a recopilar y analizar de forma óptima la información obtenida de diversas fuentes. Contrariamente a lo que se afirma, las FDI no utilizan un sistema de inteligencia artificial que identifique a operativos terroristas ni intente predecir si una persona es terrorista. Los sistemas de información son simplemente herramientas para los analistas en el proceso de identificación de objetivos. Según las directivas de las FDI, los analistas deben realizar exámenes independientes para verificar que los objetivos identificados cumplan con las definiciones pertinentes, de conformidad con el derecho internacional y las restricciones adicionales estipuladas en dichas directivas. El "sistema" al que se refieren sus preguntas no es un sistema, sino simplemente una base de datos cuyo propósito es cruzar fuentes de inteligencia para generar información actualizada sobre los operativos militares de organizaciones terroristas. Esta no es una lista de operativos militares confirmados que puedan atacar.» 
  45. «Israel Defence Forces’ response to claims about use of ‘Lavender’ AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Algunas de las afirmaciones planteadas en sus preguntas carecen de fundamento, mientras que otras reflejan una comprensión errónea de las directivas de las FDI y del derecho internacional. Tras el mortífero ataque perpetrado por la organización terrorista Hamás el 7 de octubre, las FDI han estado operando para desmantelar la capacidad militar de Hamás.» 
  46. a b c Davies, Harry (diciembre de 2023). «'The Gospel': how Israel uses AI to select bombing targets in Gaza». The Guardian. Archivado desde el original el 2 de diciembre de 2023. Consultado el 7 de abril de 2025. «Para algunos expertos que investigan la IA y el derecho internacional humanitario, una aceleración de este tipo plantea varias preocupaciones. Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo, afirmó que incluso cuando los humanos participan activamente, existe el riesgo de que desarrollen un sesgo de automatización y dependan excesivamente de sistemas que influyen excesivamente en decisiones humanas complejas. Moyes, de Article 36, explicó que al confiar en herramientas como Gospel, un comandante recibe una lista de objetivos generada por computadora y no necesariamente sabe cómo se creó ni tiene la capacidad de analizar y cuestionar adecuadamente las recomendaciones de selección de objetivos. "Existe el peligro", añadió, "de que, a medida que los humanos recurren a estos sistemas, se conviertan en engranajes de un proceso mecanizado y pierdan la capacidad de considerar el riesgo de daño a civiles de forma significativa".» 
  47. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «En las semanas posteriores al ataque liderado por Hamás el 7 de octubre contra el sur de Israel, en el que militantes palestinos mataron a casi 1.200 israelíes y secuestraron a unas 240 personas, las fuentes dijeron que hubo una decisión de tratar a los hombres palestinos vinculados al ala militar de Hamás como objetivos potenciales, independientemente de su rango o importancia.» 
  48. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Los testimonios publicados por +972 y Local Call podrían explicar cómo un ejército occidental con capacidades tan avanzadas, con armas capaces de realizar ataques de precisión, ha librado una guerra con un coste humano tan elevado. A la hora de atacar a sospechosos de bajo rango de Hamás y la Yihad Islámica Palestina, afirmaron, la preferencia era atacar cuando se creía que estaban en casa. «No nos interesaba matar a operativos [de Hamás] solo cuando se encontraban en un edificio militar o participaban en una actividad militar», dijo uno. «Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones».» 
  49. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Dos fuentes afirmaron que, durante las primeras semanas de la guerra, se les permitía matar a 15 o 20 civiles durante ataques aéreos contra militantes de bajo rango. Los ataques contra estos objetivos se llevaban a cabo típicamente con municiones no guiadas, conocidas como "bombas tontas", según las fuentes, destruyendo casas enteras y matando a todos sus ocupantes. "No se debe desperdiciar bombas costosas en personas sin importancia; es muy costoso para el país y hay escasez [de esas bombas]", declaró un oficial de inteligencia. Otro señaló que la principal pregunta que se les planteaba era si los "daños colaterales" a los civiles justificaban un ataque. "Porque normalmente llevábamos a cabo los ataques con bombas tontas, lo que significaba literalmente dejar caer toda la casa sobre sus ocupantes. Pero incluso si se evitaba un ataque, no importaba; se pasaba inmediatamente al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Hay otros 36.000 esperando".» 
  50. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Según los expertos en conflictos, si Israel ha estado usando bombas tontas para destruir las casas de miles de palestinos que estaban vinculados, con la ayuda de AI, a grupos militantes en Gaza, eso podría ayudar a explicar el sorprendentemente alto número de muertos en la guerra.» 
  51. Rommen, Rebecca (7 de abril de 2024). «Israel's 'Where's Daddy?' AI system helps target suspected Hamas militants when they're at home with their families, report says». Yahoo! News. Consultado el 7 de abril de 2025. 
  52. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «A diferencia de Hamás, las Fuerzas de Defensa de Israel (FDI) están comprometidas con el derecho internacional y actúan en consecuencia. Por ello, dirigen sus ataques únicamente contra objetivos y operativos militares, y los llevan a cabo de conformidad con las normas de proporcionalidad y precaución en los ataques. Los incidentes excepcionales se someten a exámenes e investigaciones exhaustivas.» 
  53. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Según el derecho internacional humanitario, toda persona identificada como miembro de un grupo armado organizado (como el brazo armado de Hamás) o que participe directamente en las hostilidades se considera un objetivo legítimo. Esta norma jurídica se refleja en la política de todos los países respetuosos de la ley, incluidas las prácticas y políticas jurídicas de las Fuerzas de Defensa de Israel (FDI), que no cambiaron durante la guerra.» 
  54. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «En cuanto a la forma de ejecutar los ataques, las FDI realizan diversos esfuerzos para reducir los daños a la población civil en la medida de lo posible, dadas las circunstancias operativas vigentes en el momento del ataque. En este sentido, las FDI revisan los objetivos antes de los ataques y seleccionan la munición adecuada según consideraciones operativas y humanitarias, considerando las características estructurales y geográficas relevantes del objetivo, su entorno, los posibles efectos sobre la población civil cercana, la infraestructura crítica en las inmediaciones, etc. Las municiones aéreas sin un sistema de guiado de precisión integrado son armamento estándar en los ejércitos desarrollados de todo el mundo. Las FDI utilizan estas municiones mediante sistemas a bordo de aeronaves para calcular un punto de disparo específico y garantizar un alto nivel de precisión, utilizados por pilotos entrenados. En cualquier caso, la gran mayoría de las municiones utilizadas en los ataques son municiones guiadas de precisión.» 
  55. a b Dyett, Greg (8 de diciembre de 2024). «Australian man, his wife and brother killed in air strike». SBS News (en inglés). Consultado el 7 de abril de 2025. «Medios locales libaneses informan que un avión de guerra israelí disparó un misil contra varias viviendas en la zona libanesa de Bint Jbei. El impacto del misil mató a Ibraham Bazzi, de 27 años, a su hermano Ali Bazzi y a la esposa de Ibrahim, Shorouk Hammond. Hammoud había obtenido recientemente una visa australiana y ella y su esposo Ibrahim planeaban establecerse en Australia.»  Afif Bazzi (Mayor of Bint Jbeil): "Fue una sorpresa que los israelíes atacaran un barrio civil. La gente vive con normalidad, no han huido. No huimos de Bint Jbeil; todos los residentes siguen allí. Oímos los bombardeos, pero aún estaban lejos. La ciudad era neutral, pero nos sorprendió que un barrio civil fuera atacado: civiles, un novio que vino de Australia para llevar a su novia. Estaban pasando tiempo juntos con su hermano en casa de este. Fue una verdadera sorpresa para nosotros."
  56. Nabil Al Nashar (27 de diciembre de 2023). «Australian man and his brother killed in Lebanon after building hit by Israeli air strike, family says». ABC News (en inglés australiano). Consultado el 7 de abril de 2025. 
  57. Bourke, Latika (8 de diciembre de 2024). «Australian killed in Lebanon strike was Hezbollah fighter, militant group says». The Sydney Morning Herald (en inglés). Consultado el 7 de abril de 2025. 
  58. Rachael Ward (27 de diciembre de 2023). «Australian reportedly killed in Lebanon by airstrike». Australian Financial Review (en inglés). Consultado el 7 de abril de 2025. 
  59. Nabil Al Nashar (8 de diciembre de 2024). «Military-style funeral held for Australian 'Hezbollah fighter' killed by Israeli air strike in Lebanon». ABC News (en inglés australiano). Consultado el 7 de abril de 2025. 
  60. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Dicha estrategia arriesgaba un mayor número de víctimas civiles, y las fuentes afirmaron que las FDI impusieron límites preautorizados al número de civiles que consideraban aceptable matar en un ataque dirigido a un solo militante de Hamás. Se dijo que la proporción había cambiado con el tiempo y variaba según la antigüedad del objetivo. Según +972 y Local Call, las FDI consideraron permisible matar a más de 100 civiles en ataques contra altos funcionarios de Hamás. "Teníamos un cálculo de cuántos [civiles] podían ser asesinados] para el comandante de brigada, cuántos [civiles] para el comandante de batallón, y así sucesivamente", dijo una fuente [...] Una fuente dijo que el límite de víctimas civiles permitidas "subió y bajó" con el tiempo, y en un momento dado llegó a ser tan bajo como cinco. Durante la primera semana del conflicto, dijo la fuente, se autorizó matar a 15 no combatientes para eliminar a militantes jóvenes en Gaza. Sin embargo, afirmaron que las estimaciones de bajas civiles eran imprecisas, ya que no era posible saber con certeza cuántas personas había en un edificio. Otro oficial de inteligencia afirmó que, más recientemente en el conflicto, la tasa de daños colaterales permitidos se redujo. Sin embargo, en una etapa anterior de la guerra, se les autorizó a matar hasta "20 civiles no involucrados" por un solo operativo, independientemente de su rango, importancia militar o edad.» 
  61. McKernan, Bethan (3 de abril de 2025). «'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets». The Guardian. Consultado el 7 de abril de 2025. «Expertos en derecho internacional humanitario que hablaron con The Guardian expresaron su alarma ante los informes de que las FDI aceptan y preautorizan índices de daños colaterales de hasta 20 civiles, especialmente para militantes de bajo rango. Afirmaron que los ejércitos deben evaluar la proporcionalidad de cada ataque.» 
  62. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Para cada objetivo, los procedimientos de las FDI exigen una evaluación individual de la ventaja militar prevista y los daños colaterales esperados. Estas evaluaciones no se realizan categóricamente en relación con la aprobación de cada ataque. La evaluación de los daños colaterales esperados de un ataque se basa en diversos métodos de evaluación y medidas de recopilación de inteligencia, a fin de lograr la evaluación más precisa posible, considerando las circunstancias operativas pertinentes. Las FDI no realizan ataques cuando los daños colaterales esperados son excesivos en relación con la ventaja militar.» 
  63. «Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza». The Guardian. 3 de abril de 2024. Consultado el 7 de abril de 2025. «Las FDI rechazan rotundamente la afirmación de que existe una política de matar a decenas de miles de personas en sus hogares.» 
  64. Elise, Vincent (15 de diciembre de 2023). «Israel's use of AI in bombings raises questions over rules of war». Le Monde.fr. Archivado desde el original el 20 de febrero de 2024. Consultado el 7 de abril de 2025. «Las armas automatizadas actuales se dividen en dos categorías principales: sistemas de armas letales totalmente automatizados, de los cuales no existen ejemplos reales en el mercado, y armas letales autónomas (LAW), que, en principio, permiten el control humano. La gran mayoría de las potencias militares occidentales —e Israel, con Habsora— afirman ahora haber optado por las LAW y, por lo tanto, pueden afirmar estar en el lado más apropiado del uso de la fuerza. Laure de Roucy-Rochegonde, también investigadora del IFRI y autora de una tesis sobre la regulación de los sistemas de armas autónomas, afirmó que las particularidades de la guerra entre Israel y Hamás podrían volver obsoletas estas categorías difusas y revitalizar otro concepto regulatorio, el de "control humano significativo". Se trata de una definición más estricta que algunos activistas de derechos humanos, incluida la ONG Artículo 36, han estado impulsando sin mucho éxito. "El problema es que no sabemos qué tipo de algoritmo utiliza [el ejército israelí] ni cómo se han agregado los datos. No sería un problema si no hubiera una decisión de vida o muerte al final", dijo de Roucy-Rochegonde.» 
  65. a b c Brumfiel, Geoff. «Israel is using an AI system to find targets in Gaza. Experts say it's just the start». NPR. Archivado desde el original el 20 de febrero de 2024. Consultado el 7 de abril de 2025. «El enorme volumen de objetivos probablemente también esté ejerciendo presión sobre los humanos encargados de revisarlos, afirma Suchman. "Ante esta aceleración, dichas revisiones se ven cada vez más limitadas en cuanto al tipo de juicio que las personas pueden ejercer", afirma. Mimran añade que, bajo presión, los analistas estarán más dispuestos a aceptar las recomendaciones de objetivos de la IA, independientemente de si son correctas. Los oficiales encargados de la selección de objetivos podrían verse tentados a pensar que "la vida será mucho más fácil si seguimos a la máquina y aceptamos sus consejos y recomendaciones", afirma. Sin embargo, esto podría generar un "nuevo nivel de problemas" si la máquina identifica sistemáticamente los objetivos de forma errónea. Por último, Khlaaf señala que el uso de la IA podría dificultar la rendición de cuentas de los implicados en el conflicto. Aunque los humanos siguen conservando la responsabilidad legal de los ataques, no está claro quién es responsable si el sistema de selección de objetivos falla. ¿Es el analista que aceptó la recomendación de la IA? ¿Los programadores que crearon el sistema? ¿Los oficiales de inteligencia que recopilaron los datos de entrenamiento?» 
  66. «UN chief 'deeply troubled' by reports Israel using AI to identify Gaza targets». France 24 (en inglés). 5 de abril de 2024. Consultado el 6 de abril de 2024. 
  67. «'AI-assisted genocide': Israel reportedly used database for Gaza kill lists». Al Jazeera. 4 de abril de 2024. Consultado el 7 de abril de 2025. 
  68. Ben Saul (4 de abril de 2024). «'AI-assisted genocide': Israel reportedly used database for Gaza kill lists». Al Jazeera. Consultado el 7 de abril de 2025. 
  69. Joseph Stepansky (17 de abril de 2024). «Big Tech 'basically complicit' in civilian deaths in Gaza». Al Jazeera. Consultado el 7 de abril de 2025. 
  •   Datos: Q125523199