Guerre à Gaza : Tsahal utilise-t-il vraiment l’intelligence artificielle ? Découvrez les révélations choquantes d’une enquête journalistique !

Guerre à Gaza : Tsahal utilise-t-il vraiment l’intelligence artificielle ? Découvrez les révélations choquantes d’une enquête journalistique !

Au cœur des récentes violences à Gaza, une question brûlante persiste : Tsahal a-t-il recours à l’intelligence artificielle ? Plongez dans les révélations percutantes d’une enquête journalistique sans concession !

Une enquête journalistique révèle l’utilisation de l’IA par Tsahal dans la guerre à Gaza

Un récent rapport published le 04/05/2024 par des journalistes israéliens a mis en lumière l’utilisation de l’intelligence artificielle (IA) par l’armée israélienne, également connue sous le nom de Tsahal, dans la guerre à Gaza. Cette enquête détaille le mode opératoire de Tsahal, nommé “Lavender”, qui consiste à établir des listes d’hommes à éliminer en utilisant une machine agrégeant des milliards de données.

Des données personnelles utilisées pour établir des listes de cibles

Selon l’enquête, l’armée israélienne utiliserait des données telles que le domicile, les déplacements, les réseaux sociaux, les photos et même les fréquentations des individus ciblés. Le rédacteur en chef de +972 magazine, Meron Rapoport, décrit ce processus comme “mettre des gens dans des listes qui ont pratiquement valeur de condamnation à mort”.

L’IA au service de l’armée : une première à grande échelle

Cette utilisation de l’intelligence artificielle par Tsahal est inédite, car c’est la première fois qu’une armée utilise l’IA à grande échelle pour repérer des cibles et prendre des décisions létales. Cette situation préoccupe non seulement l’ONU, mais aussi les associations de défense des droits de l’homme.

Nombre de victimes collatérales : des chiffres alarmants

L’enquête se base sur 6 témoignages d’agents actifs de la division d’élite du cyber-renseignement de Tsahal, qui utilise Lavender. Selon ces sources, pour une personne visée à son domicile, le nombre de victimes collatérales jugées acceptable par Tsahal est de 15 à 20 personnes. Si la cible est de très haute valeur, ce chiffre peut grimper jusqu’à 200 à 300 personnes.

Un mode opératoire inquiétant

Bien que l’intelligence artificielle n’ordonne pas directement de tuer, le militaire doit agir en urgence dès que le système lui donne un nom. Ce mode opératoire soulève de sérieuses questions éthiques et légales, d’autant plus que cette guerre dure depuis bientôt 7 mois et que les critiques à l’encontre d’Israël se multiplient.

Partager et commenter l’article

Partager l’article sur les réseaux sociaux et consulter les commentaires pour approfondir le débat sur l’utilisation de l’intelligence artificielle dans les conflits armés.

Vous souhaitez Laisser un Commentaire ?