Gaza : un laboratoire de ciblage automatisé, où l’IA a permis de multiplier les frappes humaines à très grande échelle, avec un contrôle humain réduit et un coût civil massif.
L’armée israélienne a utilisé un système d’IA nommé Lavender pour générer en masse des listes de Palestiniens à éliminer à Gaza, surtout au début de la guerre après le 7 octobre 2023.

Ce que décrit l’enquête
- Lavender sert à identifier automatiquement des personnes classées comme membres présumés du Hamas ou du Jihad islamique palestinien.
- Le système a désigné jusqu’à 37 000 personnes comme cibles potentielles.
- Les analystes humains validaient souvent ces cibles en quelques secondes, parfois en vérifiant seulement que la cible était bien un homme.
- Le système commettait environ 10 % d’erreurs, avec des confusions possibles entre militants, proches, policiers, agents civils ou simples personnes associées à un téléphone suspect.
Mode opératoire décrit
- Les personnes ciblées étaient frappées principalement à leur domicile, souvent la nuit, lorsqu’elles se trouvaient avec leur famille.
- Un autre système appelé “Where’s Daddy?” servait à repérer le moment où elles entraient chez elles pour déclencher la frappe.
- Pour les cibles jugées de moindre importance, l’armée utilisait souvent des bombes non guidées, moins coûteuses mais beaucoup plus destructrices pour les civils.
Sur les pertes civiles
- L’enquête décrit une politique autorisant pour certaines cibles subalternes la mort de 15 à 20 civils, et pour certains hauts responsables plus de 100 civils.
- Cette logique a conduit à la mort de familles entières, notamment de nombreuses femmes et de nombreux enfants.
- Le calcul du nombre de civils présents dans les habitations reposait sur des outils automatisés et imprécis, déconnectés de la réalité du terrain.
Ce que disent les témoins
- Plusieurs sources militaires décrivent une logique de production industrielle de cibles : aller vite, frapper massivement, accepter la marge d’erreur et des dommages collatéraux élevés.
- Elles décrivent aussi un climat marqué par la vengeance, la pression opérationnelle et la recherche d’une létalité maximale après le 7 octobre.
Position officielle de l’armée israélienne
- Tsahal rejette ces accusations.
- L’armée dit utiliser l’IA comme outil d’aide, et non comme décideur autonome.
- Elle soutient que chaque cible est examinée humainement et que les frappes respectent le droit international.