Gaza : l’IA qui génère des listes de cibles

Gaza : un laboratoire de ciblage automatisé, où l’IA a permis de multiplier les frappes humaines à très grande échelle, avec un contrôle humain réduit et un coût civil massif.
L’armée israélienne a utilisé un système d’IA nommé Lavender pour générer en masse des listes de Palestiniens à éliminer à Gaza, surtout au début de la guerre après le 7 octobre 2023.

Ce que décrit l’enquête

  • Lavender sert à identifier automatiquement des personnes classées comme membres présumés du Hamas ou du Jihad islamique palestinien.
  • Le système a désigné jusqu’à 37 000 personnes comme cibles potentielles.
  • Les analystes humains validaient souvent ces cibles en quelques secondes, parfois en vérifiant seulement que la cible était bien un homme.
  • Le système commettait environ 10 % d’erreurs, avec des confusions possibles entre militants, proches, policiers, agents civils ou simples personnes associées à un téléphone suspect.

Mode opératoire décrit

  • Les personnes ciblées étaient frappées principalement à leur domicile, souvent la nuit, lorsqu’elles se trouvaient avec leur famille.
  • Un autre système appelé “Where’s Daddy?” servait à repérer le moment où elles entraient chez elles pour déclencher la frappe.
  • Pour les cibles jugées de moindre importance, l’armée utilisait souvent des bombes non guidées, moins coûteuses mais beaucoup plus destructrices pour les civils.

Sur les pertes civiles

  • L’enquête décrit une politique autorisant pour certaines cibles subalternes la mort de 15 à 20 civils, et pour certains hauts responsables plus de 100 civils.
  • Cette logique a conduit à la mort de familles entières, notamment de nombreuses femmes et de nombreux enfants.
  • Le calcul du nombre de civils présents dans les habitations reposait sur des outils automatisés et imprécis, déconnectés de la réalité du terrain.

Ce que disent les témoins

  • Plusieurs sources militaires décrivent une logique de production industrielle de cibles : aller vite, frapper massivement, accepter la marge d’erreur et des dommages collatéraux élevés.
  • Elles décrivent aussi un climat marqué par la vengeance, la pression opérationnelle et la recherche d’une létalité maximale après le 7 octobre.

Position officielle de l’armée israélienne

  • Tsahal rejette ces accusations.
  • L’armée dit utiliser l’IA comme outil d’aide, et non comme décideur autonome.
  • Elle soutient que chaque cible est examinée humainement et que les frappes respectent le droit international.

Sources : +972 et Local Call