Comment préserver la confiance dans les images humanitaires à l’ère de l’IA ? Entre nouvelles normes éthiques et outils de génération d’images, les organisations naviguent dans un paysage visuel transformé. Face à la méfiance croissante et aux risques de désinformation, elles doivent repenser leurs stratégies tout en préservant l’authenticité de leur témoignage.
Les images sont essentielles dans la communication humanitaire, dans la mesure où elles servent à la fois à informer, émouvoir, sensibiliser et, de ce fait, à susciter de l’engagement et du soutien financier. L’empreinte visuelle qu’elles laissent dans notre conscience collective permet non seulement de nous indiquer quelles sont les crises dont il faut se préoccuper (puisque l’absence d’images conduit aussi à une quasi-ignorance des crises qu’on ne voit pas), mais ces images façonnent aussi notre compréhension de ces crises et de ce qui est en jeu. Les images sont, de même, un élément clé pour toucher le grand public dans des environnements numériques toujours plus concurrentiels et saturés. Les images ont toujours été au cœur du monde humanitaire tel que nous le connaissons aujourd’hui, et elles en sont même constitutives, depuis les premières photographies utilisées pour collecter des fonds au lendemain du génocide arménien et de la Première Guerre mondiale[1]Keith David Watenpaugh, Bread from Stones. The Middle East and the Making of Modern Humanitarianism, University of California Press, 2015. jusqu’au témoignage sur la guerre du Biafra porté devant les caméras par les futurs fondateurs de Médecins Sans Frontières (MSF) au début des années 1970[2]Marie-Luce Desgrandchamps, « Revenir sur le mythe fondateur de Médecins sans frontières : les relations entre les médecins français et le CICR pendant la guerre du Biafra (1967-1970) », … Continue reading, en passant par les images de la guerre du Vietnam qui ont été à l’origine des manifestations anti-guerre aux États-Unis et en Europe. Pourtant, les conditions à remplir pour retenir l’attention et susciter la confiance du public dans les informations transmises ont fondamentalement changé dans le secteur de la communication d’aujourd’hui[3]Mette Mortensen, Stuart Allan and Chris Peters, “The iconic image in a digital age”, Nordicom Review, vol. 38, no. 2, November 2017, pp. 71–86.. Comme je vais l’expliquer dans cet article, trois changements distincts mais liés entre eux ont contribué à cela : d’abord, une modification des normes et de l’éthique quant au choix des images et de leur contenu ; ensuite, un changement qui touche à la technologie et aux outils disponibles pour produire des images ; et enfin, une modification du paysage de la communication avec une polarisation accrue et une peur de la désinformation et de la mésinformation.
Voici une illustration de la manière dont ces changements sont liés entre eux : les organisations humanitaires sont de plus en plus conscientes du fait que leur manière de représenter les populations touchées par les crises humanitaires a un impact sur nos représentations collectives, mais aussi que cela soulève des questions sur le respect de la vie privée des personnes en situation de grande vulnérabilité – que ces images soient utilisées à des fins de documentation et de sensibilisation ou pour des campagnes de collecte de fonds. La plupart des acteurs humanitaires sont, pour l’instant, réticents à l’idée d’utiliser des images générées par une intelligence artificielle (IA) dans le cadre de leurs communications publiques et invoquent la nécessité d’être authentiques pour être crédibles.
« La plupart des acteurs humanitaires sont, pour l’instant, réticents à l’idée d’utiliser des images générées par une intelligence artificielle (IA) dans le cadre de leurs communications publiques. »
Le cas d’Amnesty International, qui a utilisé l’IA pour illustrer son rapport 2023 sur les violences policières en Colombie – provoquant un tollé et suscitant de très nombreuses critiques –, semble pour l’instant avoir créé un précédent[4]Felix Marlowe, “‘It was a mistake’: Amnesty International apologizes after releasing AI-generated images”, Belles & Gals, 17 December 2024.. Pourtant, des usages périphériques émergent, comme lorsque des leaders d’opinion utilisent des images générées par l’IA pour illustrer leur indignation sur les réseaux sociaux[5]Une image générée par l’intelligence artificielle a circulé sur Facebook et ailleurs, représentant une chirurgienne de Gaza qui a perdu neuf de ses enfants lors d’une frappe aérienne … Continue reading, lorsqu’une organisation non gouvernementale (ONG) locale expérimente, pour sa campagne de collecte de fonds, des images générées par l’IA, ou lorsqu’est organisée la première exposition de photos générées par l’IA représentant les détenus des camps de détention australiens sur les îles de Manus et Nauru[6]Maria Gabrielsen Jumbert, “The AI dilemma: Can artificial images of war and suffering stir empathy?”, Global Policy, 15 March 2024, … Continue reading. Lorsque de telles images sont utilisées, elles apparaissent comme des solutions à un dilemme normatif : elles illustrent des situations en reflétant la réalité, mais sans exposer les personnes concernées elles-mêmes. En parallèle, des images « fausses », artificielles et réelles circulent ensemble dans notre paysage visuel, certaines clairement identifiées comme « générées par l’IA », d’autres prétendant être réelles, et d’autres enfin, tout à fait réelles, mais que l’on soupçonne d’avoir été fabriquées. C’est là qu’émerge un nouveau défi pour des organisations qui ont besoin d’être crédibles lorsqu’elles communiquent sur des crises en cours : la confiance du public envers les photographies très réelles se détériore rapidement. Cet article présente et étudie ces défis actuels, en répondant à une question clé : comment les acteurs humanitaires peuvent-ils s’adapter à ce nouvel environnement ?
Un environnement de communication en pleine mutation
Le fait que les informations et les images issues de contextes de crise soient contestées et que, souvent, elles doivent aussi être analysées minutieusement, n’est pas nouveau. De même que la prise de conscience que les images circulent plus vite et que de multiples sources d’informations se font concurrence pour capter notre attention. Avec la « transformation numérique » de l’aide humanitaire[7]Kristin Bergtora Sandvik, Humanitarian Extractivism: The Digital Transformation of Aid, Manchester University Press, 2023 et Framing Humanitarian AI Conversations: What Do We Talk About When We Talk … Continue reading, la communication humanitaire est aussi devenue numérique, et les acteurs du secteur ont adopté les outils et les techniques de communication des réseaux sociaux. Trois changements liés les uns aux autres permettent d’analyser ce qui crée de nouvelles conditions pour la communication humanitaire et le rôle des images dans celle-ci.
Le premier changement porte sur les normes et l’éthique concernant ce qui peut et doit être représenté, pour mieux décrire les sujets humanitaires. Si les formes traditionnelles de témoignage à travers la photographie ont été questionnées, du fait de la posture de spectateur de la souffrance des autres qu’elles induisent[8]Lilie Chouliaraki, The Ironic Spectator: Solidarity in the Age of Post-Humanitarianism, John Wiley & Sons, 2013., les normes portant sur ce qui ne devrait pas être représenté sont devenues plus strictes ces dernières décennies. Les organisations humanitaires se préoccupent aujourd’hui beaucoup plus de ne pas montrer de préjudices corporels, et sont plus attentives à la façon de représenter les enfants ou les personnes en situation de vulnérabilité qu’elles ne l’étaient il y a quelques décennies[9]Valérie Gorin, « La place de l’enfant dans l’action et la communication humanitaires : sortir de l’enfance icône », Alternatives Humanitaires, n° 19, mars 2022, p. 1-5, … Continue reading. Ce changement s’est fait petit à petit depuis les années 1990, mais il s’est imposé plus fortement au cours des dix dernières années en lien avec le souhait du secteur de se libérer de son héritage colonial et de son ancien mode de pensée, et avec ses efforts pour localiser l’aide humanitaire. Pour toucher le grand public en étant crédible, il n’est plus acceptable de reproduire des clichés éculés, ni d’exposer exagérément des personnes en situation de vulnérabilité. La préoccupation de ne pas reproduire des images qui rappellent des représentations passées d’un « sauveur blanc » est également très présente. Ainsi, MSF a été à la fois accusée ces dernières années d’utiliser de façon abusive des photos pour représenter des victimes et des patients, et félicitée pour être la première à susciter une prise de conscience et encourager la réflexion sur l’utilisation des images provenant de contextes humanitaires, dans le cadre de ses efforts plus larges pour lutter contre le racisme institutionnel et la discrimination[10]MSF, Énoncés au sujet du racisme, 5 juin 2020, https://www.medecinssansfrontieres.ca/enonces-au-sujet-du-racisme.
Le deuxième changement est une modification dans la manière dont les images sont produites, diffusées, et par qui : grâce aux smartphones à portée de main permettant de partager des images largement et instantanément, et à des logiciels offrant de les corriger et de les retoucher. Les plateformes de réseaux sociaux proposent sans arrêt de nouveaux outils pour présenter les messages de la manière la plus attrayante possible dans un contexte concurrentiel, et les visuels jouent un rôle essentiel pour retenir l’attention[11]Moran Yarchi and Lillian Boxman-Shabtai, “The image war moves to TikTok evidence from the May 2021 round of the Israeli-Palestinian conflict”, Digital Journalism, vol. 13, no. 1, 13 December … Continue reading. Alors que des outils de génération d’images alimentés par l’IA sont devenus accessibles à pratiquement tout le monde, des images sophistiquées ressemblant à des photographies circulent déjà largement, avec des objectifs plus ou moins sérieux. Même s’il existe une très forte réticence à l’utilisation de telles images pour leur communication publique au sein des ONG, des exceptions voient lentement le jour, comme lorsqu’il n’est pas possible de prendre de véritables photographies à cause des contraintes de sécurité et qu’alors les images générées par l’IA permettent au moins de représenter la réalité, ou lorsqu’il serait problématique d’utiliser de vraies photographies et que des images générées par l’IA ont été utilisées en précisant que cela protège les « vrais réfugiés »[12]Maria Gabrielsen Jumbert, “The AI dilemma: Can Artificial Images …”, art. cit. . En même temps, l’IA est également utilisée pour générer des illustrations : celles-ci ne cachent pas le fait qu’elles sont artificielles, et elles sont essentiellement utilisées dans le cadre du plaidoyer, mais elles sont largement partagées lorsqu’elles portent le bon message au bon moment. Ainsi, l’image intitulée All Eyes on Rafah, qui est apparemment devenue l’image la plus partagée sur Internet, en est un bon exemple[13]Bobby Allyn, “‘All eyes on Rafah’ is the Internet’s most viral AI image. Two artists are claiming credit”, NPR, 3 June 2024..
Le troisième changement est une modification de l’environnement de la communication. L’idée que nous baignons dans la désinformation et la mésinformation génère une méfiance générale envers toutes les sources d’information, mais il existe aussi des risques de désinformation réelle ciblant les opérations humanitaires. Le paysage de la communication visuelle qui nous entoure n’est plus constitué, d’une part, par la communication visuelle journalistique et, d’autre part, par les images des organisations humanitaires. Il existe désormais aussi une production d’« informations » par d’autres acteurs qui portent sur les réponses humanitaires. Elles sont publiées par des leaders d’opinion sur les réseaux sociaux et il s’agit, à des degrés divers, de leurs opinions personnelles, qui parfois relaient des informations fiables, et parfois reformulent des éléments d’information qui peuvent, dans le meilleur des cas, être trompeurs. Que ces informations soient tout à fait fiables, en partie vraies ou totalement inventées, cette forme de communication fait aussi partie de l’écosystème informatif humanitaire et elle façonne ainsi l’espace dans lequel les acteurs humanitaires communiquent, et opèrent. De plus, dans un contexte de polarisation généralisée, les missions de sauvetage en mer des acteurs humanitaires sont encore plus souvent remises en cause, avec l’utilisation d’images à l’appui. Par exemple, dans un climat politique de controverse sur les migrations, des militants peuvent créer des montages vidéo faisant croire que des opérations de recherche et de sauvetage se déroulent en coopération avec des passeurs de migrants – et certaines de ces vidéos ont été rapidement diffusées[14]Sean Healy and Victoria Russel, “The critical risk of disinformation for humanitarians – The case of the MV Aquarius”, Journal of Humanitarian Affairs, vol. 3, no. 1, 2021, pp. 28–39.. Le revers de la médaille, c’est lorsque des images d’enfants de Gaza sont présentées comme étant « fausses », alors que circule un mélange d’images tout à fait réelles et d’autres générées artificiellement[15]« Gaza : la vidéo d’une fillette transportant sa soeur blessée sur son dos devient virale », France 24, Info ou Intox, 24 octobre 2024, … Continue reading. Ces soupçons de « mise en scène » de la souffrance ne sont pas un phénomène nouveau[16]Susan Sontag, Devant la douleur des autres, Christian Bourgois éditeur, 2003., mais la façon dont les nouveaux logiciels et l’IA permettent de fabriquer des images qui semblent réelles remet en question la confiance dans des images vraiment prises par quelqu’un « sur le terrain ».
Les défis majeurs à relever par les acteurs humanitaires en matière de communication visuelle
Mais alors, comment les acteurs humanitaires peuvent-ils s’adapter à un tel contexte, entre les nouvelles manières de représenter les réalités actuelles et la possibilité d’un déclin rapide de la confiance dans les images ? D’après mes échanges avec des acteurs humanitaires depuis dix-huit mois, la plupart déclarent avoir l’intention de ne jamais utiliser d’images artificielles, car la confiance dans l’authenticité des images qu’ils utilisent est essentielle pour leur crédibilité et leur confiance.
« Chaque image utilisée par les organisations humanitaires fait partie d’un ensemble plus large qui constitue notre conscience collective. »
Bien que l’usage qu’ils font des images fasse partie de ce qu’ils peuvent contrôler, je veux souligner dans la suite de cet article le fait que les images des crises actuelles ne peuvent pas être considérées comme de simples visualisations uniques et distinctes. Chaque image utilisée par les organisations humanitaires fait partie d’un ensemble plus large qui constitue notre conscience collective, et l’utilisation abusive de certaines fausses images peut avoir des conséquences sur la confiance ressentie dans les images en général.
Préserver la confiance dans un environnement de plus en plus méfiant
La première question à laquelle les organisations humanitaires doivent se confronter désormais est celle de la manière de protéger la confiance qui existe encore dans des images dont l’objectif est de nous informer sur les atrocités, les violations et les souffrances en cours. Même si beaucoup de grandes organisations humanitaires semblent se reposer sur la confiance dont elles bénéficient déjà en tant qu’organisations reconnues, il suffira d’une mauvaise utilisation de leur marque ou de la republication d’une image qu’il n’aurait pas fallu publier pour que la confiance globale dans les images qu’elles utilisent soit affectée. Cette confiance est cruciale à un moment où, par exemple, les preuves de violations graves du droit international humanitaire reposent essentiellement sur des images. Il suffit de suivre les discussions sur les bombardements d’hôpitaux ou les attaques contre des ambulances de la Croix-Rouge à Gaza pour constater l’importance des photos et des vidéos afin de déterminer ce qui s’est passé. Une autre question qui se pose est celle de savoir comment les organisations humanitaires doivent répondre lorsqu’elles sont elles-mêmes ciblées par des campagnes de désinformation ou de mésinformation : peut-il être envisageable parfois de ne rien faire et se fier à sa réputation, ou cela vaut-il la peine de réagir et riposter, avec les risques que cela implique ?
Considérer les images comme un ensemble de visuels
Penser l’utilisation des images par les acteurs humanitaires demande d’adopter une approche collective plutôt qu’une approche image par image, dans laquelle chaque organisation décide seule. La confiance du public envers les images, en particulier dans les crises actuelles, peut avoir un impact sur tous les acteurs humanitaires, même si chacun d’entre eux compte sur sa marque respective et sa propre réputation. Si une image en soi peut raconter son propre récit, chaque image interagit avec d’autres représentations visuelles et notre connaissance du contexte. Par exemple, l’image générée par l’IA d’une petite fille réfugiée en Grèce nous parle parce que nous avons vu beaucoup d’autres images réelles des camps et des conditions de vie des réfugiés. De même, une image stéréotypée d’une victime de la famine peut, en soi, raconter une histoire importante, mais devenir problématique dans la manière dont elle est diffusée si elle ne fait que reproduire des points de vue d’un autre temps. Considérer les images comme faisant partie d’un ensemble plus large de visuels semble important au moment où les organisations humanitaires débattent de l’utilisation éthique des images et en particulier de leurs positions sur l’utilisation des images générées par l’IA.
Une frontière floue entre le réel et l’artificiel
Même si la différence entre un photographe sur le terrain et un ordinateur sur lequel on crée une image restera toujours claire – au sens où l’un photographie quelque chose qui est en train de se passer réellement, alors que l’autre se contente de le représenter de manière artificielle –, certaines utilisations créatives des images générées par l’IA posent la question de la frontière entre le réel et l’artificiel, et entre des utilisations trompeuses et des utilisations acceptables. Les exemples vont des images générées par l’IA permettant de décrire une situation qui n’est documentée par aucune photographie – où les personnes affectées peuvent donner leur avis sur la manière dont l’image devrait être composée – à l’IA permettant de créer des images esthétiquement belles d’une pédiatre entourée de ses neufs enfants – qui sont plus faciles à partager sur les réseaux sociaux que n’importe quelle image prise juste après un bombardement fatal. De telles utilisations sont peut-être plus proches des représentations artistiques de la guerre – dans des dessins, des peintures ou des bandes dessinées, mais leur rendu photoréaliste suscite une confusion entre ce qui est réel et ce qui est inventé.
« Des ONG ont aussi mis en scène des scénarios pour représenter des situations qui, sinon, n’auraient pas été documentées. »
Des ONG ont aussi mis en scène des scénarios pour représenter des situations qui, sinon, n’auraient pas été documentées, ou ont utilisé des films en réalité virtuelle[17]Valérie Gorin, “From empathy to shame: The use of virtual reality by humanitarian organisations”, in Brenda Lynn Edgar, Valérie Gorin and Dolores Martín-Moruno (eds.), Making Humanitarian … Continue reading, en communiquant toujours clairement sur le fait qu’il s’agissait de personnages mis en scène et fictifs. Cependant, la disponibilité des applications de l’IA peut rendre ces recréations et représentations beaucoup plus faciles à produire, de manière variable indiquées comme telles, jouant sur leur rendu photoréaliste et seulement reconnaissables à leur caractère bien composé. Si cela souligne l’importance de communiquer clairement sur ce qui n’est pas réel, cela soulève aussi des questions sur la façon de préserver la confiance dans ce qui est de facto tout à fait réel. Alors que des stratégies sont désormais adoptées, la directive présentée par Nethope en 2024[18]NetHope Centre for the Digital Nonprofit, Humanitarian AI Code of Conduct, Elizabeth Shaughnessy, 2024. La formulation complète est la suivante : « Lorsqu’il existe des préoccupations … Continue readingmérite qu’on s’y arrête : elle stipule que les signataires s’engagent à ne pas utiliser d’images « photoréalistes » de groupes vulnérables, générées par l’IA, dans leurs publications. La confiance dans les images réelles est déjà mise en question et, quels que soient les outils discursifs et narratifs offerts par l’IA, c’est ultimement aussi la confiance dans le témoignage humanitaire qui est en jeu.
Traduit de l’anglais par Lucile Guieu
Crédits photo : © K. Nateel / HI
