Israël a utilisé une IA pour identifier des cibles de bombardements à Gaza

L’armée israélienne aurait utilisé un programme d’intelligence artificielle secret – baptisé « Lavender » – pour identifier des agents du Hamas à Gaza, selon une longue enquête publiée le 3 avril dernier par le magazine +972 et le site d’informations Local Call. Jusqu’à 37 000 personnes ont été ciblées par l’IA. Et ce, malgré un taux d’erreur de 10 %.

Ce fut, selon les mots de l’armée israélienne, la « première guerre de l’IA ». En mai 2021, de violents affrontements éclatent entre Israël et le Hamas, rythmés par des tirs de roquette de la bande de Gaza vers Israël et vice-versa. Pour optimiser l’action sur le terrain, dont le ciblage de combattants du Hamas, Tsahal décide alors d’user d’algorithmes basés sur l’intelligence artificielle. Rapidement, l’IA permet à l’armée israélienne de générer 100 nouvelles cibles par jour dans la bande de Gaza, contre 50 par an par le passé, selon les dires de l’ancien chef d’état-major Aviv Kochavi, interviewé par le site d’information israélien Ynet en juillet 2023. Au terme de 11 jours d’hostilités sanglantes, pas moins de 256 Palestiniens et 14 Israéliens sont décédés.

Depuis, l’État hébreu ne cesse de déployer de nouveaux programmes d’intelligences artificielles à usage militaire. Fin novembre 2023, le magazine +972 révélait les dessous de « Gospel », un système d’IA capable d’identifier les bâtiments depuis lesquels, selon l’armée israélienne, les militants du Hamas opèrent. Quatre mois plus tard, le même magazine d’information et d’opinion israélien dévoile dans une nouvelle enquête, co-produite avec le journal en hébreu Local Call, l’existence d’une autre intelligence artificielle baptisée « Lavender ». Cette fois, l’IA n’identifie plus les bâtiments cibles mais des personnes à abattre.

37 000 cibles humaines

Ces révélations font suite à un long travail d’enquête du journaliste et cinéaste israélien Yuval Abraham, entré en contact avec six officiers du renseignement israélien dont il a publié les témoignages le 3 avril dernier dans les colonnes du magazine en ligne +972 et du journal Local Call. Chacun des six officiers interviewés a servi dans l’armée israélienne et a été impliqué dans l’utilisation de systèmes d’IA pour identifier les cibles du Hamas et du Jihad islamique palestinien (JIP). Leur témoignage, particulièrement franc, offre un rare aperçu du fonctionnement des services de renseignement israéliens et de leur utilisation des systèmes d’apprentissage automatique pour identifier des cibles au cours de la guerre opposant Israël et le Hamas.

Selon cette enquête, « Lavender » aurait désigné jusqu’à 37 000 personnes comme combattants ou militants du Hamas et du Jihad islamique, parmi les 2,3 millions d’habitants de la bande de Gaza. « L’existence de Lavender est antérieure à cette guerre, mais jusque-là ça avait été un simple outil de second plan, contextualise le rédacteur en chef de Local Call, Meron Rapoport, lors d’une interview accordée à Courrier internationale jeudi 4 avril. Pour cette guerre, il a été perfectionné pour traquer et tuer des dizaines de milliers de membres du Hamas, de tout rang, parfois même sans lien direct avec la branche militaire de l’organisation – certains faisaient partie du gouvernement civil de Gaza ».

 

La suite ICI

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *