Skip to main content
Faire un don

Gaza : Les outils numériques de l’armée israélienne mettent en danger les civils

Les nouvelles technologies suscitent de profondes inquiétudes en matière de droit de la guerre, de confidentialité et de données personnelles

Décombres d’une zone du nord de Gaza touchée par des frappes israéliennes, le 22 novembre 2023. Dans le ciel, au-dessus des nuages de fumée, quatre traces de projectiles fumigènes tirés par des fusées éclairantes étaient également visibles.  © 2023 John MacDougall/AFP via Getty Images

(Jérusalem, 10 septembre 2024) – L’utilisation par l’armée israélienne de technologies de surveillance, d’intelligence artificielle (IA) et d’autres outils numériques permettant de déterminer les cibles à attaquer à Gaza risquent d’accroître le risque de dommages aux civils, a déclaré Human Rights Watch aujourd’hui en publiant un document de questions-réponses (en anglais) à ce sujet. Ces outils numériques suscitent de graves préoccupations éthiques, juridiques et humanitaires.

Dans le cadre des hostilités à Gaza, l’armée israélienne utilise quatre outils numériques afin d’estimer le nombre de civils dans une zone avant une attaque, de recommander aux soldats un moment opportun pour une attaque, de déterminer si une personne est un civil ou un combattant, et d’évaluer si une structure est civile ou militaire. Human Rights Watch a constaté que ces outils numériques semblent toutefois s’appuyer sur des données erronées ou imprécises sur lesquelles des actions militaires sont basées, d’une manière qui pourrait contrevenir aux obligations d’Israël en vertu du droit international humanitaire, en particulier les règles sur la nécessité de distinguer entre civils et combattants, et de prendre toutes les précautions nécessaires.

« L’armée israélienne utilise des données incomplètes, des calculs erronés et des outils inadaptés pour l’aider à prendre des décisions de vie ou de mort à Gaza, ce qui pourrait accroître les dommages aux civils », a déclaré Zach Campbell, chercheur senior sur les questions de surveillance à Human Rights Watch. « Les problèmes liés à la conception et à l’utilisation de ces outils signifient qu’au lieu de minimiser les dommages aux civils, leur utilisation risque d’entraîner des actions qui tuent ou blessent illégalement des civils. »

Ces outils impliquent une surveillance continue et systématique des résidents palestiniens de Gaza, y compris une collecte de données qui a débuté même avant les hostilités actuelles, d’une manière incompatible avec le droit international des droits humains. Ces outils utilisent les données personnelles des Palestiniens afin de prévoir des menaces, identifier des cibles et perfectionner l’apprentissage des logiciels d’IA.

Human Rights Watch a examiné des déclarations publiques de responsables israéliens, des documents publiés par l’armée israélienne et des reportages de médias, et a mené des entretiens avec des experts et des journalistes, afin d’évaluer les quatre outils que l’armée israélienne utilise lors des hostilités à Gaza depuis le 7 octobre 2023. Ces informations, bien qu’incomplètes, fournissent des détails importants sur le fonctionnement de ces outils, la manière dont ils ont été conçus, les données qu’ils utilisent et la manière dont ils pourraient soutenir la prise de décisions militaires.

Ces quatre outils sont les suivants : un outil basé sur le suivi de données des téléphones portables, utilisé par exemple pour surveiller l’évacuation des Palestiniens hors de certaines parties du nord de la bande de Gaza, suite à l’ordre donné par l’armée israélienne le 13 octobre 2023 ; un outil d’IA surnommé « L’Évangile » (« Habsora » en hébreu) qui crée des listes de bâtiments ou d’autres cibles structurelles à attaquer ; un autre outil appelé « Lavender » (« Lavande »), qui attribue des « notes » aux habitants de Gaza en fonction de leur affiliation présumée à des groupes armés palestiniens, afin de sélectionner certains en tant que cibles militaires ; et enfin, un outil appelé « Where’s Daddy ? » (« Où est papa ? »), logiciel d’IA conçu pour déterminer quand une cible humaine se trouve dans un endroit particulier – souvent sa maison familiale présumée, selon des médias – afin qu’elle puisse y être attaquée.

L’armée israélienne devrait s’assurer que toute utilisation de technologies dans ses opérations est conforme au droit international humanitaire. Aucune décision de ciblage ne doit être prise sur la seule base des recommandations d’un outil d’apprentissage automatique. Si les forces israéliennes agissent sur la base des recommandations ou des évaluations de ces outils sans examen approfondi ou informations supplémentaires – comme cela a été signalé – et si cela entraîne parfois des attaques causant des dommages aux civils, les forces israéliennes violeraient dans ces cas-là les lois de la guerre. Les violations graves des lois de la guerre, telles que des attaques indiscriminées contre des civils avec une intention criminelle, constituent des crimes de guerre.

Communiqué complet disponible en anglais.

…………

Your tax deductible gift can help stop human rights violations and save lives around the world.

Région/Pays

Les + visionnés