Le Deepfake est une arme puissante dans la guerre au Soudan

Bien qu’encore rudimentaire – les modèles de clonage vocal ne peuvent pas encore relayer des dialectes soudanais convaincants – l’utilisation des Deepfakes est désormais couramment utilisée sur le champ de bataille alternatif, violent, bien que sans effusion de sang, du Soudan : les médias sociaux.

En avril 2024, une image d’un bâtiment en proie aux flammes est devenue virale sur Facebook au Soudan. L'image a été largement partagée avec des légendes affirmant que le bâtiment faisait partie de l'université Al-Jazeera dans la ville de Wad Madani et que l'armée soudanaise l'avait bombardé. Beaucoup dirigeants politiques et les personnalités publiques faisaient partie de celles qui en sont devenues la proie et l’ont partagée.

Cependant, il ne s'agit pas d'un cas isolé. Alors que le conflit entre l'armée du pays et les forces paramilitaires rebelles de soutien rapide se poursuit, les plateformes de médias sociaux sont devenues un champ de bataille alternatif où les deepfakes générés par l'IA sont généreusement utilisés pour diffuser de fausses nouvelles les uns sur les autres. et gagner plus de sympathisants. Cette tendance constitue une menace sérieuse dans ce pays d’Afrique du Nord-Est qui a cruellement besoin d’un écosystème d’information sain.

L’IA a été utilisée pour générer de fausses vidéos dès les premiers jours de la guerre en cours. En août 2023, le Daily Mail a identifié une vidéo de l'ambassadeur américain au Soudan adage que l'Amérique a un plan pour réduire l'influence de l'Islam dans le pays.

En octobre 2023, un enquête de la BBC a révélé une campagne utilisant l'IA pour se faire passer pour l'ancien dirigeant soudanais, Omar al-Bashir, qui avait reçu des centaines de milliers de vues sur TikTok.

En mars 2024, un compte X pour un animateur télé et radio commun un enregistrement attribué au chef des forces armées soudanaises ordonnant le meurtre de civils, le déploiement de tireurs d'élite et l'occupation de bâtiments. Cet enregistrement créé par l'IA a été visionné par 230 000 personnes et partagé par des centaines, y compris des Soudanais connus. politiciens.

De plus, en septembre 2023, certains Soudanais férus de technologie et sans affiliation politique évidente ont commencé à utiliser des technologies deepfake pour créer du contenu satirique. Par exemple, une chanson initialement publiée pour soutenir les forces armées soudanaises a été reproduit Il s'agit d'un deepfake dans lequel le leader de RSF, Mohamed Hamdan Dagalo (alias Hemedti), chante la chanson en compagnie d'un de ses officiers supérieurs. On l'a vu des milliers de fois. Si les téléspectateurs n’ont pas manqué le but humoristique de la chanson modifiée, dans d’autres cas, ce contenu s’est transformé en désinformation.

En mars 2024, un enregistrement créé par l'IA a montré une réunion secrète entre les chefs des milices de RSF et quelques dirigeants de la coalition Liberté et Changement discutant d'un projet de coup d'État militaire, alors que l'enregistrement n'était pas authentique, il a été partagé le même mois par des sources connues. journalistes et même la télévision nationale avant d'être supprimé plus tard. Obai Alsadig, le créateur de l'enregistrement, m'a dit que l'enregistrement était « sarcastique avec des dialogues faibles et faux » et qu'il « voulait démontrer au public que créer de tels faux enregistrements n'est pas difficile ».

Les partisans des forces armées soudanaises, dans le cadre de la guerre psychologique, ont lancé une campagne visant à mettre en doute les enregistrements authentifiés d'Hemedti, affirmant faussement qu'ils étaient tous créés par une IA et qu'il était mort, même si une analyse indépendante révéléavec une grande confiance, que ces enregistrements sont exacts.

Plusieurs efforts ont été déployés pour lutter contre les contenus de désinformation profondément faux, dont le siège est au sein de Beam Reports, basé à Khartoum, la seule organisation soudanaise de vérification des faits. vérifié par l'organisation internationale de vérification des faits, et qui vérifie les contenus au Soudan depuis 2023. L'organisation traque les deep fakes au Soudan et a publié une analyse à ce sujet.

« Bien que la technologie deepfake soit utilisée sur les réseaux sociaux à des fins trompeuses, nous ne pouvons pas dire que son utilisation a augmenté de manière significative au cours des six mois précédents, en particulier dans le contexte du Soudan. Cependant, il convient de noter que des contenus audio trompeurs ont également été générés à l’aide de l’IA et attribués à des personnes actives dans les affaires soudanaises. Marsad Beam, ​​une division au sein de Beam Report chargée de surveiller et de vérifier les fausses nouvelles virales, a travaillé sur un rapport dans lequel il a vérifié l'authenticité de ce contenu, m'a expliqué Beam Reports par e-mail.

Dans un séminaire en ligne organisé par l'UNESCO en mai, Beam Reports a souligné les défis que l'utilisation de l'IA a posés ces derniers mois.

« Après un an de lutte contre la désinformation en ligne, Beam Reports a souligné que l'absence de reportages sur le terrain conduit à une augmentation de la désinformation », a déclaré l'UNESCO dans un communiqué après l'événement. « Ce phénomène est encore amplifié et compliqué par l’utilisation croissante de l’intelligence artificielle générative dans la production et la diffusion de désinformations et de discours de haine. »

Des personnes possédant des compétences techniques avancées sont également intervenues pour aider à vérifier les contenus viraux, Mohanad Elbalal, un militant soudanais basé au Royaume-Uni qui a volontairement vérifications des faits contenu sur les réseaux sociaux, m'a expliqué. «Si je pense qu'un clip est un deepfake, j'inverserai les images de recherche d'images pour essayer de trouver une correspondance, car généralement ces deepfakes IA sont reproduits à partir d'un modèle, donc des images similaires sont susceptibles d'apparaître. Je rechercherai tout élément identifiable dans le clip, comme le faux logo de la chaîne d’information utilisé dans le deepfake.

« La plus grande limitation dans la détection des deepfakes est le manque d'accès à des outils fiables. » Shirin Anlenun technologue des médias chez Witness, m'a dit par e-mail. « Même si des recherches inspirantes sont en cours dans le domaine, elles sont souvent hors de portée du grand public et nécessitent un haut niveau d'expertise technique. Les outils de détection accessibles au public peuvent être difficiles à comprendre en raison du manque de transparence et de clarté des résultats, laissant les utilisateurs dans le flou, en particulier lorsque ces outils produisent des faux positifs, ce qu'ils font assez souvent », a-t-elle expliqué.

« D'un point de vue technique, ces outils sont encore fortement dépendants de la qualité et de la diversité des données de formation. Cette dépendance crée des défis, notamment en ce qui concerne les préjugés en faveur de types spécifiques de manipulation, de personnalités ou de qualité des fichiers. Dans notre travail, nous avons remarqué que la compression et la résolution des fichiers jouent un rôle important dans la précision de la détection », a-t-elle ajouté.

Le problème des fausses nouvelles générées par l’IA au Soudan pourrait encore s’intensifier à mesure que la technologie devient plus avancée.

« Jusqu'à présent, une grande partie des deepfakes générés par l'IA et circulant dans le pays pourraient facilement être identifiés comme faux en raison de leur mauvaise qualité, ce qui pourrait être attribué au manque de données formées sur les dialectes soudanais », Mohamed Sabry, chercheur soudanais en IA à Dublin City University, a partagé ses réflexions avec moi. Mais cela changera à l’avenir si les acteurs malveillants décident d’investir plus de temps et d’argent pour utiliser une technologie avancée d’IA pour produire leur contenu, a-t-il ajouté.

« Dans les langues à faibles ressources, comme les dialectes soudanais, les modèles de clonage vocal sont moins efficaces et moins facilement identifiables. Le ton robotique est tout à fait évident, même pour les auditeurs inexpérimentés », a déclaré Mohamed. Cependant, « de nombreux efforts sont déployés pour relever les défis liés aux ensembles de données linguistiques à faibles ressources. De plus, il convient de noter la généralisabilité impressionnante des réseaux neuronaux profonds lorsqu’ils sont formés sur des dialectes et des domaines proches de l’arabe.

Si les faux contenus susceptibles d'inciter à la violence dans le climat politique instable du Soudan constituent une menace majeure, il existe également un risque de dividende du menteur parmi les hommes politiques locaux.

En juin 2023, Moubarak Ardol, homme politique soudanais, tweeté que l'enregistrement vocal de sa conversation téléphonique avec un autre homme politique se moquant du chef de l'armée et de sa volonté d'accepter toute offre de la milice RSF n'était pas exact et avait été réalisé à l'aide d'un logiciel d'IA. Il a affirmé que le créateur de l'enregistrement s'était appuyé sur des échantillons de sa voix disponibles sur Internet.

Ce phénomène a de graves conséquences négatives car il crée un environnement de scepticisme qui pousse les citoyens à remettre en question même les informations valables générées par l’IA.

Les plateformes de médias sociaux ont commencé à prendre des mesures strictes contre le contenu Deepfake, mais tout ce contenu est toujours accessible, ce qui montre que ces politiques ne sont pas appliquées dans des pays comme le Soudan, probablement en raison d'un manque ou d'un manque de modérateurs de contenu qui comprennent le contexte local.

YouTube a partagé avec moi sa politique en matière de deepfakes qui interdit ce type de désinformation. La politique souligne que « les contenus techniquement manipulés qui induisent les utilisateurs en erreur et peuvent présenter un risque sérieux de préjudice flagrant ne sont pas autorisés sur YouTube. »

De plus, la politique exige que « les créateurs divulguent lorsqu'ils ont créé ou modifié un contenu synthétique réaliste » et que « nous appliquerons une étiquette de transparence à ce contenu afin que les téléspectateurs aient un contexte important ».