IA militaire en Israël : retrouver les otages à Gaza et localiser les chefs du Hamas

Depuis le déclenchement de la guerre à Gaza le 7 octobre 2023, Israël a déployé des technologies d’intelligence artificielle militaire sans précédent. Face à l’ampleur des opérations menées contre le Hamas, l’armée israélienne (Tsahal) a rapidement intégré des programmes d’IA pour améliorer la rapidité et la précision de ses actions, tout en cherchant à limiter les pertes civiles. Cet article détaille les principales applications de l’IA sur le terrain, l’organisation d’un centre d’innovation dédié, ainsi que les enjeux éthiques soulevés par ces nouveaux outils.
Les principales applications de l’IA sur le terrain
Chatbot en dialectes arabes pour l’analyse du terrain
L’un des premiers projets d’IA Israël Gaza mis en place a été un chatbot entraîné sur plusieurs dialectes arabes. Développé au sein d’unité 8200, ce programme permettait aux analystes de collecter et d’évaluer en temps réel l’opinion publique et les flux d’informations locales. Grâce à ce chatbot dialectal, Tsahal pouvait mieux anticiper les mouvements de population et ajuster ses opérations de contre-terrorisme.
Reconnaissance audio IA pour la localisation de cibles
Un système de reconnaissance audio IA a également été déployé pour identifier des signatures sonores spécifiques : bombes, frappes aériennes, moteurs de véhicules. Ces programmes traitent les enregistrements en direct et, par comparaison avec des bases de données acoustiques, localisent les points chauds. Ce dispositif a joué un rôle clé pour retrouver les otages en détectant leurs appels ou les bruits autour de leur lieu de détention.
Reconnaissance faciale pour identifier otages et combattants
Tsahal a mis en place un programme avancé de reconnaissance faciale capable d’identifier des visages même partiellement masqués ou blessés. Placées sur des postes de contrôle temporaires à la frontière nord-sud de la bande de Gaza, des caméras haute résolution alimentent ce logiciel, qui recoupe les visages scannés avec une base de données d’otages ou de combattants du Hamas. Si l’outil améliore la précision des libérations et des arrestations, il n’est pas exempt d’erreurs, provoquant parfois des interrogatoires injustifiés.
« Le Studio » : le centre d’innovation IA de l’unité 8200
Pour accélérer le développement de ces outils, Tsahal a créé « Le Studio », un pôle d’innovation où soldats du renseignement et réservistes issus de grandes entreprises tech (Meta, Google, Microsoft) collaborent.
- Coopération high-tech : des ingénieurs expérimentés apportent des solutions issues du Big Data militaire, optimisant algorithmes et traitements de données.
- Déploiement accéléré : le centre a permis d’autoriser, dès octobre 2023, l’usage sur le terrain de prototypes d’IA qui, sans cette structure agile, auraient mis des mois à être validés.
Cas pratique : la localisation d’Ibrahim Biari
En octobre 2023, Tsahal a intégré un nouvel outil d’IA à un système de géolocalisation vieux de dix ans pour traquer Ibrahim Biari, chef du bataillon central de Jabaliya.
- Analyse des appels : l’outil audio a identifié des communications de Biari vers un complexe de tunnels sous Jabaliya.
- Validation croisée : les données acoustiques ont été recoupées avec des images satellite et des renseignements HUMINT.
- Frappes ciblées : malgré les alertes internes sur le risque pour les civils, une mission a été autorisée. Cette opération, qui a fait des dizaines de victimes, fait aujourd’hui l’objet d’une enquête militaire.
Selon Tsahal, ce programme a aussi contribué à retrouver des otages en affinant son champ de localisation au fil des retours de mission.
Enjeux éthiques et limites des outils d’IA
L’utilisation massive de l’IA soulève plusieurs défis :
- Surveillance accrue : la collecte permanente de données peut empiéter sur la vie privée des civils.
- Erreurs de ciblage : des visages masqués ou des sons ambigus peuvent générer des arrestations injustifiées.
- Responsabilité légale : qui est responsable en cas de bavure ? Tsahal affirme s’engager à un usage « légal et responsable », mais reconnaît des « défaillances » dans certains outils.
Ces questionnements éthiques se retrouvent dans d’autres armées et organisations internationales, qui débattent actuellement des règles d’engagement pour l’IA militaire.
Perspectives et engagements d’Israël pour un usage responsable de l’IA
Face aux critiques, l’armée israélienne a mis en place :
- Charte éthique interne : principes de proportionnalité et de précaution.
- Commissions de relecture : chaque outil doit être validé par un comité mixte défense-juristes.
- Transparence contrôlée : seules certaines technologies sont rendues publiques, les autres restants classifiées.
À long terme, l’intégration de l’IA dans la cyberguerre Israël devrait s’étendre à la protection des réseaux informatiques, à la simulation de scénarios VR pour la formation, et à l’analyse prédictive des mouvements ennemis.
Conclusion
L’intelligence artificielle militaire déployée par Israël représente aujourd’hui un outil stratégique majeur pour la guerre contre le Hamas à Gaza. Entre gains opérationnels et enjeux éthiques, Tsahal cherche un équilibre entre efficacité et responsabilité. Alors que les conflits du XXIᵉ siècle intègrent de plus en plus l’IA, l’expérience israélienne servira de référence pour de nombreuses armées et décideurs internationaux.
Share this content:
Laisser un commentaire