Confiance, authenticité et représentation de la souffrance au temps des images produites par l’intelligence artificielle : comment les acteurs humanitaires s’adaptent

Confiance, authenticité et représentation de la souffrance au temps des images produites par l’intelligence artificielle : comment les acteurs humanitaires s’adaptent

Maria Gabrielsen Jumbert
Maria Gabrielsen JumbertChercheuse principale à l’Institut de recherche sur la paix d’Oslo (PRIO) et co-directrice du Centre norvégien pour les études humanitaires (NCHS). Elle est titulaire d’un doctorat en relations internationales et science politique de l’Institut d’études politiques (Sciences Po) de Paris portant sur « L’internationalisation des conflits soudanais, du Soudan du Sud au Darfour : mise à l’agenda, mobilisation et qualifications ». Les recherches de Maria portent sur les interfaces entre action humanitaire et sécurité dans les régions frontalières européennes et sur la manière dont celles-ci s’influencent mutuellement : des politiques migratoires et relatives à la gestion des frontières européennes aux réponses humanitaires et citoyennes aux crises liées à l’accueil de réfugiés dans des pays tels que la Grèce, la France ou la Norvège. Elle a également étudié de manière approfondie le rôle des technologies de surveillance aux frontières et les efforts de recherche et de sauvetage en mer. (Mise à jour en juillet 2025)

Comment préserver la confiance dans les images humanitaires à l’ère de l’IA ? Entre nou­velles normes éthiques et outils de génération d’images, les organisa­tions naviguent dans un paysage visuel transformé. Face à la méfiance crois­sante et aux risques de désinformation, elles doivent repenser leurs stratégies tout en préservant l’authenticité de leur témoignage.


Les images sont essentielles dans la communication humanitaire, dans la mesure où elles servent à la fois à informer, émouvoir, sensibiliser et, de ce fait, à susciter de l’engagement et du soutien financier. L’empreinte visuelle qu’elles laissent dans notre conscience collective permet non seulement de nous indiquer quelles sont les crises dont il faut se préoccuper (puisque l’absence d’images conduit aussi à une quasi-ignorance des crises qu’on ne voit pas), mais ces images façonnent aussi notre compréhension de ces crises et de ce qui est en jeu. Les images sont, de même, un élément clé pour toucher le grand public dans des environnements numériques toujours plus concurren­tiels et saturés. Les images ont toujours été au cœur du monde humanitaire tel que nous le connaissons aujourd’hui, et elles en sont même constitutives, depuis les premières photographies utilisées pour collecter des fonds au lendemain du génocide arménien et de la Première Guerre mondiale[1]Keith David Watenpaugh, Bread from Stones. The Middle East and the Making of Modern Humanitarianism, University of California Press, 2015. jusqu’au témoignage sur la guerre du Biafra porté devant les caméras par les futurs fon­dateurs de Médecins Sans Frontières (MSF) au début des années 1970[2]Marie-Luce Desgrandchamps, « Revenir sur le mythe fondateur de Médecins sans frontières : les relations entre les médecins français et le CICR pendant la guerre du Biafra (1967-1970) », … Continue reading, en passant par les images de la guerre du Vietnam qui ont été à l’origine des mani­festations anti-guerre aux États-Unis et en Europe. Pourtant, les conditions à remplir pour retenir l’attention et sus­citer la confiance du public dans les informations transmises ont fondamentalement changé dans le secteur de la communication d’aujourd’hui[3]Mette Mortensen, Stuart Allan and Chris Peters, “The iconic image in a digital age”, Nordicom Review, vol. 38, no. 2, November 2017, pp. 71–86.. Comme je vais l’expliquer dans cet article, trois changements distincts mais liés entre eux ont contribué à cela : d’abord, une modification des normes et de l’éthique quant au choix des images et de leur contenu ; ensuite, un changement qui touche à la technologie et aux outils disponibles pour produire des images ; et enfin, une modification du paysage de la communication avec une polarisation accrue et une peur de la désinformation et de la mésinformation.

Voici une illustration de la manière dont ces changements sont liés entre eux : les organisations humanitaires sont de plus en plus conscientes du fait que leur manière de représenter les populations touchées par les crises humanitaires a un impact sur nos représentations col­lectives, mais aussi que cela soulève des questions sur le respect de la vie privée des personnes en situation de grande vulnérabilité – que ces images soient utilisées à des fins de documentation et de sensibilisation ou pour des cam­pagnes de collecte de fonds. La plupart des acteurs humanitaires sont, pour l’instant, réticents à l’idée d’utiliser des images générées par une intelligence artificielle (IA) dans le cadre de leurs communications publiques et invoquent la nécessité d’être authentiques pour être crédibles.

« La plupart des acteurs humanitaires sont, pour l’instant, réticents à l’idée d’utiliser des images générées par une intelligence artificielle (IA) dans le cadre de leurs communications publiques. »

Le cas d’Amnesty International, qui a utilisé l’IA pour illus­trer son rapport 2023 sur les violences policières en Colombie – provoquant un tollé et suscitant de très nombreuses critiques –, semble pour l’instant avoir créé un précédent[4]Felix Marlowe, “‘It was a mistake’: Amnesty International apologizes after releasing AI-generated images”, Belles & Gals, 17 December 2024.. Pourtant, des usages périphériques émergent, comme lorsque des leaders d’opinion utilisent des images générées par l’IA pour illus­trer leur indignation sur les réseaux sociaux[5]Une image générée par l’intelligence artificielle a circulé sur Facebook et ailleurs, représentant une chirurgienne de Gaza qui a perdu neuf de ses enfants lors d’une frappe aérienne … Continue reading, lorsqu’une organisation non gouvernementale (ONG) locale expéri­mente, pour sa campagne de collecte de fonds, des images générées par l’IA, ou lorsqu’est organisée la première exposition de photos générées par l’IA représentant les détenus des camps de détention australiens sur les îles de Manus et Nauru[6]Maria Gabrielsen Jumbert, “The AI dilemma: Can artificial images of war and suffering stir empathy?”, Global Policy, 15 March 2024, … Continue reading. Lorsque de telles images sont utilisées, elles apparaissent comme des solutions à un dilemme nor­matif : elles illustrent des situations en reflétant la réalité, mais sans exposer les personnes concernées elles-mêmes. En parallèle, des images « fausses », arti­ficielles et réelles circulent ensemble dans notre paysage visuel, certaines clairement identifiées comme « géné­rées par l’IA », d’autres prétendant être réelles, et d’autres enfin, tout à fait réelles, mais que l’on soupçonne d’avoir été fabriquées. C’est là qu’émerge un nouveau défi pour des organisations qui ont besoin d’être crédibles lors­qu’elles communiquent sur des crises en cours : la confiance du public envers les photographies très réelles se dété­riore rapidement. Cet article présente et étudie ces défis actuels, en répondant à une question clé : comment les acteurs humanitaires peuvent-ils s’adapter à ce nouvel environnement ?

Un environnement de communication en pleine mutation

Le fait que les informations et les images issues de contextes de crise soient contestées et que, souvent, elles doivent aussi être analysées minutieusement, n’est pas nouveau. De même que la prise de conscience que les images circulent plus vite et que de multiples sources d’informations se font concurrence pour capter notre attention. Avec la « trans­formation numérique » de l’aide huma­nitaire[7]Kristin Bergtora Sandvik, Humanitarian Extractivism: The Digital Transformation of Aid, Manchester University Press, 2023 et Framing Humanitarian AI Conversations: What Do We Talk About When We Talk … Continue reading, la communication humanitaire est aussi devenue numérique, et les acteurs du secteur ont adopté les outils et les techniques de communication des réseaux sociaux. Trois changements liés les uns aux autres permettent d’analyser ce qui crée de nouvelles conditions pour la communication humanitaire et le rôle des images dans celle-ci.

Le premier changement porte sur les normes et l’éthique concernant ce qui peut et doit être représenté, pour mieux décrire les sujets humanitaires. Si les formes traditionnelles de témoignage à travers la photographie ont été ques­tionnées, du fait de la posture de specta­teur de la souffrance des autres qu’elles induisent[8]Lilie Chouliaraki, The Ironic Spectator: Solidarity in the Age of Post-Humanitarianism, John Wiley & Sons, 2013., les normes portant sur ce qui ne devrait pas être représenté sont devenues plus strictes ces dernières décennies. Les organisations huma­nitaires se préoccupent aujourd’hui beaucoup plus de ne pas montrer de préjudices corporels, et sont plus attentives à la façon de représenter les enfants ou les personnes en situation de vulnérabilité qu’elles ne l’étaient il y a quelques décennies[9]Valérie Gorin, « La place de l’enfant dans l’action et la communication humanitaires : sortir de l’enfance icône », Alternatives Humanitaires, n° 19, mars 2022, p. 1-5, … Continue reading. Ce changement s’est fait petit à petit depuis les années 1990, mais il s’est imposé plus forte­ment au cours des dix dernières années en lien avec le souhait du secteur de se libérer de son héritage colonial et de son ancien mode de pensée, et avec ses efforts pour localiser l’aide humanitaire. Pour toucher le grand public en étant crédible, il n’est plus acceptable de reproduire des clichés éculés, ni d’ex­poser exagérément des personnes en situation de vulnérabilité. La préoccupation de ne pas reproduire des images qui rappellent des représentations passées d’un « sauveur blanc » est également très présente. Ainsi, MSF a été à la fois accusée ces dernières années d’utiliser de façon abusive des photos pour repré­senter des victimes et des patients, et félicitée pour être la première à susciter une prise de conscience et encourager la réflexion sur l’utilisation des images provenant de contextes humanitaires, dans le cadre de ses efforts plus larges pour lutter contre le racisme institution­nel et la discrimination[10]MSF, Énoncés au sujet du racisme, 5 juin 2020, https://www.medecinssansfrontieres.ca/enonces-au-sujet-du-racisme.

Le deuxième changement est une modi­fication dans la manière dont les images sont produites, diffusées, et par qui : grâce aux smartphones à portée de main permettant de partager des images large­ment et instantanément, et à des logiciels offrant de les corriger et de les retoucher. Les plateformes de réseaux sociaux pro­posent sans arrêt de nouveaux outils pour présenter les messages de la manière la plus attrayante possible dans un contexte concurrentiel, et les visuels jouent un rôle essentiel pour retenir l’attention[11]Moran Yarchi and Lillian Boxman-Shabtai, “The image war moves to TikTok evidence from the May 2021 round of the Israeli-Palestinian conflict”, Digital Journalism, vol. 13, no. 1, 13 December … Continue reading. Alors que des outils de génération d’images alimentés par l’IA sont devenus acces­sibles à pratiquement tout le monde, des images sophistiquées ressemblant à des photographies circulent déjà largement, avec des objectifs plus ou moins sérieux. Même s’il existe une très forte réticence à l’utilisation de telles images pour leur communication publique au sein des ONG, des exceptions voient lentement le jour, comme lorsqu’il n’est pas pos­sible de prendre de véritables photogra­phies à cause des contraintes de sécurité et qu’alors les images générées par l’IA permettent au moins de représenter la réalité, ou lorsqu’il serait problématique d’utiliser de vraies photographies et que des images générées par l’IA ont été uti­lisées en précisant que cela protège les « vrais réfugiés »[12]Maria Gabrielsen Jumbert, “The AI dilemma: Can Artificial Images …”, art. cit. . En même temps, l’IA est également utilisée pour générer des illustrations : celles-ci ne cachent pas le fait qu’elles sont artificielles, et elles sont essentiellement utilisées dans le cadre du plaidoyer, mais elles sont largement partagées lorsqu’elles portent le bon message au bon moment. Ainsi, l’image intitulée All Eyes on Rafah, qui est apparemment devenue l’image la plus partagée sur Internet, en est un bon exemple[13]Bobby Allyn, “‘All eyes on Rafah’ is the Internet’s most viral AI image. Two artists are claiming credit”, NPR, 3 June 2024..

Le troisième changement est une modifi­cation de l’environnement de la commu­nication. L’idée que nous baignons dans la désinformation et la mésinformation génère une méfiance générale envers toutes les sources d’information, mais il existe aussi des risques de désinformation réelle ciblant les opérations humanitaires. Le paysage de la communication visuelle qui nous entoure n’est plus constitué, d’une part, par la communication visuelle journalistique et, d’autre part, par les images des organisations humanitaires. Il existe désormais aussi une production d’« informations » par d’autres acteurs qui portent sur les réponses humanitaires. Elles sont publiées par des leaders d’opi­nion sur les réseaux sociaux et il s’agit, à des degrés divers, de leurs opinions personnelles, qui parfois relaient des infor­mations fiables, et parfois reformulent des éléments d’information qui peuvent, dans le meilleur des cas, être trompeurs. Que ces informations soient tout à fait fiables, en partie vraies ou totalement inventées, cette forme de communication fait aussi partie de l’écosystème informa­tif humanitaire et elle façonne ainsi l’es­pace dans lequel les acteurs humanitaires communiquent, et opèrent. De plus, dans un contexte de polarisation généralisée, les missions de sauvetage en mer des acteurs humanitaires sont encore plus souvent remises en cause, avec l’utilisa­tion d’images à l’appui. Par exemple, dans un climat politique de controverse sur les migrations, des militants peuvent créer des montages vidéo faisant croire que des opérations de recherche et de sau­vetage se déroulent en coopération avec des passeurs de migrants – et certaines de ces vidéos ont été rapidement diffusées[14]Sean Healy and Victoria Russel, “The critical risk of disinformation for humanitarians – The case of the MV Aquarius”, Journal of Humanitarian Affairs, vol. 3, no. 1, 2021, pp. 28–39.. Le revers de la médaille, c’est lorsque des images d’enfants de Gaza sont présentées comme étant « fausses », alors que circule un mélange d’images tout à fait réelles et d’autres générées artificiellement[15]« Gaza : la vidéo d’une fillette transportant sa soeur blessée sur son dos devient virale », France 24, Info ou Intox, 24 octobre 2024, … Continue reading. Ces soupçons de « mise en scène » de la souf­france ne sont pas un phénomène nou­veau[16]Susan Sontag, Devant la douleur des autres, Christian Bourgois éditeur, 2003., mais la façon dont les nouveaux logiciels et l’IA permettent de fabriquer des images qui semblent réelles remet en question la confiance dans des images vraiment prises par quelqu’un « sur le terrain ».

Les défis majeurs à relever par les acteurs humanitaires en matière de communication visuelle

Mais alors, comment les acteurs huma­nitaires peuvent-ils s’adapter à un tel contexte, entre les nouvelles manières de représenter les réalités actuelles et la possibilité d’un déclin rapide de la confiance dans les images ? D’après mes échanges avec des acteurs huma­nitaires depuis dix-huit mois, la plu­part déclarent avoir l’intention de ne jamais utiliser d’images artificielles, car la confiance dans l’authenticité des images qu’ils utilisent est essentielle pour leur crédibilité et leur confiance.

« Chaque image utilisée par les organisations humanitaires fait partie d’un ensemble plus large qui constitue notre conscience collective. »

Bien que l’usage qu’ils font des images fasse partie de ce qu’ils peuvent contrô­ler, je veux souligner dans la suite de cet article le fait que les images des crises actuelles ne peuvent pas être considé­rées comme de simples visualisations uniques et distinctes. Chaque image uti­lisée par les organisations humanitaires fait partie d’un ensemble plus large qui constitue notre conscience collective, et l’utilisation abusive de certaines fausses images peut avoir des conséquences sur la confiance ressentie dans les images en général.

Préserver la confiance dans un environnement de plus en plus méfiant

La première question à laquelle les organisations humanitaires doivent se confronter désormais est celle de la manière de protéger la confiance qui existe encore dans des images dont l’ob­jectif est de nous informer sur les atro­cités, les violations et les souffrances en cours. Même si beaucoup de grandes organisations humanitaires semblent se reposer sur la confiance dont elles béné­ficient déjà en tant qu’organisations reconnues, il suffira d’une mauvaise uti­lisation de leur marque ou de la republi­cation d’une image qu’il n’aurait pas fallu publier pour que la confiance globale dans les images qu’elles utilisent soit affectée. Cette confiance est cruciale à un moment où, par exemple, les preuves de violations graves du droit internatio­nal humanitaire reposent essentiellement sur des images. Il suffit de suivre les discussions sur les bombardements d’hôpitaux ou les attaques contre des ambulances de la Croix-Rouge à Gaza pour constater l’importance des pho­tos et des vidéos afin de déterminer ce qui s’est passé. Une autre question qui se pose est celle de savoir comment les organisations humanitaires doivent répondre lorsqu’elles sont elles-mêmes ciblées par des campagnes de désinfor­mation ou de mésinformation : peut-il être envisageable parfois de ne rien faire et se fier à sa réputation, ou cela vaut-il la peine de réagir et riposter, avec les risques que cela implique ?

Considérer les images comme un ensemble de visuels

Penser l’utilisation des images par les acteurs humanitaires demande d’adop­ter une approche collective plutôt qu’une approche image par image, dans laquelle chaque organisation décide seule. La confiance du public envers les images, en particulier dans les crises actuelles, peut avoir un impact sur tous les acteurs humanitaires, même si chacun d’entre eux compte sur sa marque respective et sa propre réputation. Si une image en soi peut raconter son propre récit, chaque image interagit avec d’autres représen­tations visuelles et notre connaissance du contexte. Par exemple, l’image géné­rée par l’IA d’une petite fille réfugiée en Grèce nous parle parce que nous avons vu beaucoup d’autres images réelles des camps et des conditions de vie des réfu­giés. De même, une image stéréotypée d’une victime de la famine peut, en soi, raconter une histoire importante, mais devenir problématique dans la manière dont elle est diffusée si elle ne fait que reproduire des points de vue d’un autre temps. Considérer les images comme faisant partie d’un ensemble plus large de visuels semble important au moment où les organisations humanitaires débattent de l’utilisation éthique des images et en particulier de leurs posi­tions sur l’utilisation des images géné­rées par l’IA.

Une frontière floue entre le réel et l’artificiel

Même si la différence entre un photo­graphe sur le terrain et un ordinateur sur lequel on crée une image restera tou­jours claire – au sens où l’un photogra­phie quelque chose qui est en train de se passer réellement, alors que l’autre se contente de le représenter de manière artificielle –, certaines utilisations créa­tives des images générées par l’IA posent la question de la frontière entre le réel et l’artificiel, et entre des utilisations trompeuses et des utilisations accep­tables. Les exemples vont des images générées par l’IA permettant de décrire une situation qui n’est documentée par aucune photographie – où les personnes affectées peuvent donner leur avis sur la manière dont l’image devrait être composée – à l’IA permettant de créer des images esthétiquement belles d’une pédiatre entourée de ses neufs enfants – qui sont plus faciles à partager sur les réseaux sociaux que n’importe quelle image prise juste après un bombarde­ment fatal. De telles utilisations sont peut-être plus proches des représenta­tions artistiques de la guerre – dans des dessins, des peintures ou des bandes dessinées, mais leur rendu photoréaliste suscite une confusion entre ce qui est réel et ce qui est inventé.

« Des ONG ont aussi mis en scène des scénarios pour représenter des situations qui, sinon, n’auraient pas été documentées. »

Des ONG ont aussi mis en scène des scénarios pour représenter des situations qui, sinon, n’auraient pas été documentées, ou ont utilisé des films en réalité virtuelle[17]Valérie Gorin, “From empathy to shame: The use of virtual reality by humanitarian organisations”, in Brenda Lynn Edgar, Valérie Gorin and Dolores Martín-Moruno (eds.), Making Humanitarian … Continue reading, en communiquant toujours clairement sur le fait qu’il s’agissait de personnages mis en scène et fictifs. Cependant, la dispo­nibilité des applications de l’IA peut rendre ces recréations et représenta­tions beaucoup plus faciles à produire, de manière variable indiquées comme telles, jouant sur leur rendu photoréaliste et seulement reconnaissables à leur caractère bien composé. Si cela souligne l’importance de communiquer clairement sur ce qui n’est pas réel, cela soulève aussi des questions sur la façon de préserver la confiance dans ce qui est de facto tout à fait réel. Alors que des stratégies sont désormais adoptées, la directive présentée par Nethope en 2024[18]NetHope Centre for the Digital Nonprofit, Humanitarian AI Code of Conduct, Elizabeth Shaughnessy, 2024. La formulation complète est la suivante : « Lorsqu’il existe des préoccupations … Continue readingmérite qu’on s’y arrête : elle stipule que les signataires s’engagent à ne pas utiliser d’images « photoréalistes » de groupes vulnérables, générées par l’IA, dans leurs publications. La confiance dans les images réelles est déjà mise en question et, quels que soient les outils discursifs et narratifs offerts par l’IA, c’est ultimement aussi la confiance dans le témoignage humanitaire qui est en jeu.

 

Traduit de l’anglais par Lucile Guieu

Crédits photo : © K. Nateel / HI

Cet article vous a été utile et vous a plu ? Soutenez notre publication !

L’ensemble des publications sur ce site est en accès libre et gratuit car l’essentiel de notre travail est rendu possible grâce au soutien d’un collectif de partenaires. Néanmoins tout soutien complémentaire de nos lecteurs est bienvenu ! Celui-ci doit nous permettre d’innover et d’enrichir le contenu de la revue, de renforcer son rayonnement pour offrir à l’ensemble du secteur humanitaire une publication internationale bilingue, proposant un traitement indépendant et de qualité des grands enjeux qui structurent le secteur. Vous pouvez soutenir notre travail en vous abonnant à la revue imprimée, en achetant des numéros à l’unité ou en faisant un don. Rendez-vous dans notre espace boutique en ligne ! Pour nous soutenir par d’autres actions et nous aider à faire vivre notre communauté d’analyse et de débat, c’est par ici !

References

References
1 Keith David Watenpaugh, Bread from Stones. The Middle East and the Making of Modern Humanitarianism, University of California Press, 2015.
2 Marie-Luce Desgrandchamps, « Revenir sur le mythe fondateur de Médecins sans frontières : les relations entre les médecins français et le CICR pendant la guerre du Biafra (1967-1970) », Relations internationales, vol. 2, n° 146, 2011, p. 95-108.
3 Mette Mortensen, Stuart Allan and Chris Peters, “The iconic image in a digital age”, Nordicom Review, vol. 38, no. 2, November 2017, pp. 71–86.
4 Felix Marlowe, “‘It was a mistake’: Amnesty International apologizes after releasing AI-generated images”, Belles & Gals, 17 December 2024.
5 Une image générée par l’intelligence artificielle a circulé sur Facebook et ailleurs, représentant une chirurgienne de Gaza qui a perdu neuf de ses enfants lors d’une frappe aérienne israélienne en mai 2025. L’image la montre entourée de tous ses enfants, dans une composition esthétique de photo de famille, avec sa clinique en arrière-plan.
6 Maria Gabrielsen Jumbert, “The AI dilemma: Can artificial images of war and suffering stir empathy?”, Global Policy, 15 March 2024, https://www.globalpolicyjournal.com/blog/15/03/2024/ai-dilemma-can-artificial-images-war-and-suffering-stir-empathy
7 Kristin Bergtora Sandvik, Humanitarian Extractivism: The Digital Transformation of Aid, Manchester University Press, 2023 et Framing Humanitarian AI Conversations: What Do We Talk About When We Talk About Ethics?, PRIO, 2024.
8 Lilie Chouliaraki, The Ironic Spectator: Solidarity in the Age of Post-Humanitarianism, John Wiley & Sons, 2013.
9 Valérie Gorin, « La place de l’enfant dans l’action et la communication humanitaires : sortir de l’enfance icône », Alternatives Humanitaires, n° 19, mars 2022, p. 1-5, https://www.alternatives-humanitaires.org/fr/parution/numero-19-mars-2022
10 MSF, Énoncés au sujet du racisme, 5 juin 2020, https://www.medecinssansfrontieres.ca/enonces-au-sujet-du-racisme
11 Moran Yarchi and Lillian Boxman-Shabtai, “The image war moves to TikTok evidence from the May 2021 round of the Israeli-Palestinian conflict”, Digital Journalism, vol. 13, no. 1, 13 December 2023, pp. 115–135.
12 Maria Gabrielsen Jumbert, “The AI dilemma: Can Artificial Images …”, art. cit.
13 Bobby Allyn, “‘All eyes on Rafah’ is the Internet’s most viral AI image. Two artists are claiming credit”, NPR, 3 June 2024.
14 Sean Healy and Victoria Russel, “The critical risk of disinformation for humanitarians – The case of the MV Aquarius”, Journal of Humanitarian Affairs, vol. 3, no. 1, 2021, pp. 28–39.
15 « Gaza : la vidéo d’une fillette transportant sa soeur blessée sur son dos devient virale », France 24, Info ou Intox, 24 octobre 2024, https://www.france24.com/fr/%C3%A9missions/info-ou-intox/20241024-gaza-la-vid%C3%A9o-d-une-fillette-transportant-sa-s%C5%93ur-bless%C3%A9e-sur-son-dos-devient-virale
16 Susan Sontag, Devant la douleur des autres, Christian Bourgois éditeur, 2003.
17 Valérie Gorin, “From empathy to shame: The use of virtual reality by humanitarian organisations”, in Brenda Lynn Edgar, Valérie Gorin and Dolores Martín-Moruno (eds.), Making Humanitarian Crises. Emotions and Images in History, Palgrave Macmillan, Cham, 2022, pp. 147–170.
18 NetHope Centre for the Digital Nonprofit, Humanitarian AI Code of Conduct, Elizabeth Shaughnessy, 2024. La formulation complète est la suivante : « Lorsqu’il existe des préoccupations spécifiques à un secteur concernant un risque élevé, nous convenons : 4. De ne pas utiliser l’IA pour générer des images ou des vidéos photoréalistes de groupes vulnérables, y compris des enfants et des participants à des programmes, à des fins de publication, notamment dans le cadre de campagnes ou de collectes de fonds. »

You cannot copy content of this page