Intelligences artificielles génératives et représentations humanitaires : miroir ou solution ?

Intelligences artificielles génératives et représentations humanitaires : miroir ou solution ?

Valérie Gorin
Valérie GorinValérie Gorin est chargée de cours et chercheuse depuis 2011 au Centre d’Etudes Humanitaires Genève centre conjoint de l’Université de Genève et de l’Institut des Hautes Etudes Internationales et du Développement. Depuis 2020, elle y est responsable du programme de Master en formation continue en action humanitaire. Historienne de formation, elle a obtenu son doctorat en Sciences de la communication à l’Université de Genève en 2013. Ses intérêts de recherche portent sur l’histoire et la communication humanitaire, avec un intérêt spécifique pour la culture visuelle des organisations de solidarité internationale et les pratiques de plaidoyer. Ses récentes publications portent sur les liens entre émotions et images dans la communication (Making humanitarian crises. Emotions and images in history, 2022) ou sur les rapports inégalitaires dans les représentations médiatiques de l’humanitaire (« Media representations of humanitarianism, in Handbook on Humanitarianism and Inequality, 2024). (biographie actualisée en juin 2024)

L’intelligence artificielle générative boule­verse-t-elle vraiment la communication huma­nitaire ? Lors d’une conférence que relate l’autrice, chercheurs et praticiens ont convenu que les IA reproduisent et amplifient des pratiques anciennes de manipula­tion visuelle. Des photos missionnaires du XIXe siècle aux campagnes actuelles, les stéréotypes du « sauveur blanc » et de la « victime passive » persistent. Les algorithmes figent ces représentations biaisées dans une « banque à stéréo­types » automatisée. L’enjeu n’est pas technique mais éthique : repenser la gouvernance de l’image humanitaire.


De nombreux changements sociétaux ont préfiguré les bouleversements de l’intelligence artificielle (IA) dans l’économie visuelle et participé à une mise à distance de nos rapports avec la prétention à la vérité portée par l’image. C’est ce qu’ont notamment rappelé les organisateurs du colloque qui s’est déroulé à la Fondation Brocher, à Genève, du 4 au 6 juin 2025[1]Colloque « Artificial images in global health: Fakery before and in the era of AI », organisé par Arsenii Alenichev (Institut de médecine tropicale d’Anvers, Belgique), Sonya de Laat (McMaster … Continue reading. Rassemblant des historiens, éthiciens, anthropologues, professionnels de l’image, praticiens de la santé et experts en communication, ces discussions s’étaient donné comme objectif d’interroger la manipulation visuelle avant et à l’ère de l’IA. De fait, elles furent emblématiques des ques­tionnements qui agitent la communica­tion humanitaire depuis l’apparition des IA génératives et la possibilité de créer des images relativement réalistes.

L’arrivée des réseaux sociaux et le retour de la photographie amateure par l’usage massif de téléphones portables ont par­ticipé à la démocratisation de la circula­tion des images dans la sphère publique dès les années 2000, comme en témoignent les images des attentats du 11-Septembre, ou du tsunami de 2004[2]André Gunthert, « L’image parasite. Après le journalisme citoyen », Études photographiques, n° 20, 2007, p. 174-187.. L’apparition des caméras de surveillance automatisées et autres systèmes de reconnaissance faciale ont également modifié les frontières entre l’humain et les machines, dans ce que l’on nomme désormais la vision post-humaine[3]Bolette Blaagaard, “Post-human viewing: a discussion of the ethics of mobile phone imagery”, Visual Communication, vol. 12, no. 3, 2013, pp. 359–374..

S’agit-il pour autant d’affirmer que les organisations humanitaires – des organisations non gouvernementales (ONG) locales aux institutions interna­tionales – mobilisent de plus en plus les images générées par l’IA pour illustrer les situations de détresse ? Et si oui, dans quelle mesure ces images créées artifi­ciellement bouleversent-elles les modes de production et de diffusion des repré­sentations humanitaires ? Nous rendons compte ici d’une partie des tensions et paradoxes qui ont été explorés dans le cadre de cette conférence, laquelle a soulevé de nombreuses interrogations sur les types de manipulation, les biais des IA génératives, les risques de stéréo­typisation, et la responsabilité éthique des créateurs d’images.

De nouvelles « fausses images » ?

Interroger l’usage de l’IA générative, c’est d’abord l’inscrire dans une conti­nuité des pratiques communication­nelles déjà présentes dans le secteur. Ainsi, il implique de questionner les notions même de manipulation, de dis­torsion, de fausseté et d’artificialité dans l’image. C’est la supposée fidélité au réel qui est renégociée par l’arrivée des IA génératives et l’automatisation de la création, mais qui fait pourtant oublier que toute image reste une construction sociale et politique[4] Susan Sontag, Sur La Photographie, Christian Bourgois éditeur, trad. Philippe Blanchard, 2000 (1977)..

« C’est la supposée fidélité au réel qui est renégociée par l’arrivée des IA génératives et l’automatisation de la création. »

Si l’histoire de la manipulation visuelle a été faite pour les contextes de guerre et propagande politique[5]Fabrice d’Almeida, Images et Propagande, Éditions Casterman, 1995., cette analyse demeure par­cellaire en ce qui concerne l’imagerie humanitaire. Les pratiques communi­cationnelles des ONG s’étant largement nourries des genres photographiques tels que la photo missionnaire ou le photojournalisme, nul doute qu’on puisse y retrouver les mêmes procédés de tromperie dans les représentations de la souffrance.

La première partie des discussions abordées a donc comparé historiquement les usages problématiques au fil du temps, comme les mises en scène ou les retouches photographiques. L’iconographie humanitaire regorge ainsi d’images dont il faut questionner l’au­thenticité. Parmi les exemples évoqués par les conférenciers, de nombreuses images montrent des scènes posées et des cadrages sélectifs sur des épisodes de violences coloniales ou de famines, remontant à la fin du XIXe siècle[6] Christina Twomey, “Framing atrocity: Photography and humanitarianism”, History of photography, vol. 36, no. 3, 2012, pp. 255–264.. Si les contraintes des appareils photogra­phiques pouvaient justifier la composi­tion posée des images à l’époque, ces visuels composent aujourd’hui une bonne partie des images générées par l’IA.

On trouve également des usages répé­tés, recyclés d’images, bien au-delà du contexte dans lequel elles ont été prises. Les images des famines africaines, dont la figure centrale – celui de l’enfant affamé et isolé – occupe largement les campagnes de levée de fonds depuis la famine biafraise, restent l’exemple le plus frappant. L’effacement du contexte, le rognage, le montage composite, qui font partie des techniques de manipula­tion les plus connues[7]Dino A. Brugioni, Photo Fakery: The History and Techniques of Photographic Deception and Manipulation, Brassey’s, 1999., sont détectables sur de nombreuses affiches, de Save the Children aux sociétés nationales des Croix-Rouge et Croissant-Rouge depuis les années 1960. Ce type d’image-totem nourrit également l’esthétique miséra­biliste créée par l’IA, qui fournit à profu­sion des images de personnes racisées, permettant, in fine, l’effacement du cadre spatio-temporel et du référent historique.

Un autre trucage célèbre, celui de l’el­lipse visuelle avant-après. Une cam­pagne en avait fait les frais, celle de l’affiche « Leila » d’Action contre la Faim. En janvier 1994, l’ONG publiait une affiche montrant Leila, une femme éma­ciée (« avant ») puis en meilleure santé (« après »), accompagnée de la mention « Leila 100F plus tard »[8]Thomas Pontiroli, « Action contre la faim, le coeur sur l’humain », Stratégies, 14 mars 2017. … Continue reading. Cette technique fonctionne en mettant en oppo­sition une image de mort imminente et l’action salvatrice. L’effet incitateur pour le spectateur a été développé dans les milieux publicitaires (notamment par les multinationales agroalimentaires), puis récupéré dans les visuels humanitaires. Cette technique soulève toutefois des interrogations quant à l’exagération temporelle qu’elle semble suggérer, et surtout sur l’authenticité des profils uti­lisés (les personnes représentées sont-elles vraiment les mêmes personnes avant/après ?). Comme le suggère Bruno David, ce procédé qui emprunte à la publicité mensongère « est-il applicable aux ONG sans risque de tromperie ?[9]Bruno David, « Action Contre La Faim : Leila, le retour ? », Grotius International, 2 novembre 2012, https://grotius.fr/action-contre-la-faim-leila-le-retour »

La question de l’authenticité interroge aussi les cas où des images ont dû être reproduites après événement, soit parce qu’il n’existait pas de visuels sur le vif, soit parce que la situation était jugée trop délicate pour utiliser de vraies pho­tos. C’est le cas de la série d’affiches It’s a matter of life and death, produites lors du lancement de la campagne Health care in Danger du Comité international de la Croix-Rouge (CICR) en 2011. Destinées à sensibiliser les parties au conflit à respecter le personnel et les bâtiments sanitaires, ces affiches ont été réalisées artificiellement en studio en partenariat avec l’agence Getty et le photographe Tom Stoddart[10]Voir le making-off de la campagne par Getty Images : “Behind the scenes of the Red Cross shoot”, https://www.youtube.com/watch?v=Yu629TmPEXA. Parce qu’elles repré­sentent toutes des personnes décédées (combattants et civils), il a été jugé impossible d’utiliser de vraies images, par respect pour la dignité des morts. Le CICR a aussi porté une attention particu­lière à ne pas reproduire des signes qui permettraient d’identifier des uniformes ou des lieux spécifiques, en rapport avec sa politique de neutralité – bien qu’il y ait suffisamment de référents visuels pour deviner un camp de réfugiés, un checkpoint, une ville bombardée. L’esthétique reproduite à l’époque en studio ressemble très fortement à ce que réalise l’IA.

Une banque à stéréotypes

Les exemples précédemment cités sou­lignent la manière dont les IA généra­tives prolongent, bien plus qu’elles ne renouvellent, des pratiques anciennes de mise en scène, de stéréotypisa­tion et d’effacement des subjectivités locales. Les nombreuses études effec­tuées depuis une vingtaine d’années sur les représentations humanitaires ont démontré comment elles ont été historiquement produites par et pour le Nord global. Elles soulignent de pro­fondes inégalités entre les communau­tés représentées et les publics ainsi qu’une tendance à l’essentialisation des souffrances. Ces représentations s’appuient sur des stéréotypes visuels et narratifs qui réduisent la complexité des contextes et renforcent des dyna­miques néocoloniales[11]Valérie Gorin, « Media representations of humanitarianism », in Silke Roth, Bandana Purkayastha and Tobias Denskus (eds.), Handbook on Humanitarianism and Inequality, Edward Elgar Publishing, … Continue reading.

Une deuxième étape de la conférence a donc permis de questionner les biais structurels des IA génératives, notam­ment la persistance de biais de genre, de classe et de race, comme l’ont sou­levé plusieurs études récentes. Cela est notamment dû aux défauts inhé­rents aux bases de données utilisées pour entraîner ces IA aux algorithmes, mais aussi au manque de retour d’ex­périence des utilisateurs. Les IA géné­ratives nous tendent ainsi un miroir : en puisant dans des bases de données qui ne sont pas neutres, elles nous ren­voient les logiques politiques, idéologiques et historiques inhérentes à notre vision du monde – une vision reproduite par les IA dans leur manière de classi­fier et comprendre l’information pour la reproduire[12]Kate Crawford and Trevor Paglen, “Excavating AI: the politics of images in machine learning training sets”, AI & SOCIETY, vol. 36, no. 4, 2021, pp. 1105–1116..

« La lecture automatisée faite par les algorithmes repère et renforce des tropes visuels. »

Dans le cas de l’imagerie humani­taire, la lecture automatisée faite par les algorithmes repère et renforce des tropes visuels. Parmi les stéréotypes les plus présents, on trouve la figure de l’enfant-icône et la surreprésentation des sauveurs blancs. Les populations du Sud global sont souvent ramenées à leur statut de victimes, passives et démunies, empêchant de les envisager comme des agents actifs de leur propre destinée. Les minorités restent invisibilisées ou stéréo­typées, réduites à des rôles subalternes. Ainsi, dans une séance pratique consis­tant à expérimenter les différentes IA génératives d’images, les participants à la conférence ont pu reproduire les mêmes représentations que celles discutées dans la recherche d’Arsenii Alenichev et ses collègues[13]Arsenii Alenichev, Patricia Kingori and Koen Peeters Grietens, “Reflections before the storm: the AI reproduction of biased imagery in global health visuals”, The Lancet Global Health, vol. 11, … Continue reading. En 2023, cette expé­rience avait généré plus de 300 images avec la version 5.1 de MidJourney, sur la base de prompts cherchant à inverser les tropes classiques, comme « docteurs africains prenant soin d’enfants blancs malades ». Malgré de nombreuses ten­tatives, l’IA a quasiment systématique­ment échoué à inverser ces tropes, en perpétuant le binôme problématique du sauveur blanc/malade noir, ou en carica­turant et exagérant des marqueurs cultu­rels d’“africanité”.

Ces expériences soulignent, d’une part, à quel point « le racisme, le sexisme et le colonialisme sont des processus sociaux enracinés qui se manifestent dans les situations du quotidien, y compris dans l’IA »[14]Ibid., p. 1497.. D’autre part, elles mettent en lumière le manque de transparence inhérent à la procédure des systèmes d’apprentissage automatique : quelles sont les bases de données qui ont été uti­lisées, et qu’est-ce qui est fait pour assu­rer des représentations plus complexes et équitables ? ; comment les humains encodent-ils les images pour entraîner l’IA ? ; comment l’IA reconnaît-elle et labellise-t-elle les images ? ; quels sont les prompts qui ont été utilisés ?

Quelle éthique applicable ?

Dans ce cadre, le manque de trans­parence n’est qu’un des problèmes éthiques soulevés par l’utilisation d’images générées par l’IA. Les cas discutés ci-dessus ne sont que des exemples parmi d’autres, qui soulèvent l’urgence de redéfinir une éthique visuelle responsable et inclusive dans un contexte de transformation numé­rique. C’était l’enjeu de la troisième journée de la conférence, qui a servi à aborder les codes de conduite et autres chartes éthiques dans la communica­tion humanitaire. Des cas médiatisés ces dernières années ont démontré que les droits des personnes repré­sentées[15]Voir l’enquête menée par le journaliste Arnaud Robert sur Rosius Fleuranvil, un homme haïtien bénéficiaire de l’aide apportée par la Croix-Rouge suisse, dont l’image circulait encore en … Continue reading, notamment la question très délicate du consentement à l’image[16]Voir le cas de MSF, largement critiqué sur les réseaux sociaux en 2022, d’une jeune femme en RDC survivante de violences sexuelles, qui avait donné son consentement pour que sa photo soit … Continue reading, posent souvent problème.

Dans ce cas, l’usage de l’IA offre une solution en permettant de dépasser le problème du consentement. Toutefois, elle n’amène pas à réfléchir sur les modèles d’images utilisés pour nourrir l’IA – et les droits des personnes repré­sentées. Que penser, par exemple, de certaines images artificielles vues pen­dant la conférence, représentant des fil­lettes réfugiées dont la pose et les yeux verts évoquent très clairement Sharbat Gula, l’iconique « fille afghane » prise en photo par Steve McCurry en 1984 ? Sait-elle que son image sert à esthéti­ser de manière trompeuse une repré­sentation de la migration effectuée par des algorithmes ? Une double problé­matique du consentement, puisqu’une controverse avait émergé en 2020, critiquant le mode de production forcé et la fétichisation de la fillette par McCurry[17]André Gunthert, “La peur dans les yeux”, L’image Sociale, 14 mars 2020, https://imagesociale.fr/8217.
Le cas interroge les rapports de pouvoir disproportionnés dans les contextes humanitaires, et la difficulté de ce que constitue un consentement éclairé et itératif, d’autant plus quand l’usage de l’image porte sur des décennies et qu’il passe de la sphère analogique à la sphère numérique. Faut-il exiger plus de transparence des entreprises qui acceptent de fournir leur banque d’images ? Que penser des agences humanitaires qui pourraient fournir leurs archives visuelles pour nourrir les algorithmes – est-ce un gage de moralité, de responsabilité pour détourner les biais de l’IA ? Autant de questions qui restent en suspens, qui montrent la nécessité de repenser les parcours et les constructions visuelles. Ne pas mentionner explicitement le caractère artificiel des images utilisées dans les campagnes constitue une forme de tromperie.

Un usage relativement étendu de l’IA ne saurait remplacer le devoir de redevabilité des organisations humanitaires. Dans une relation éthique, le consentement est plus qu’une autorisation laissée à l’ONG de faire usage de l’image ; il est avant tout une relation établie avec un bénéficiaire auquel on accorde plusieurs droits : le droit d’être informé, le droit d’effacer, de rectifier des informations, mais aussi le droit à être oublié. Ces éléments juridiques, en accord avec le règlement général sur la protection des données (RGPD), sont notamment défendus par l’organisation FairPicture, un collectif de photographes présent à la conférence[18]FairPicture, The Platform for Ethical and Compliant Content Production, https://fairpicture.org. Par ailleurs, ce type d’initiatives souligne la nécessité de repenser la collaboration avec des créateurs d’images authentiques. De même qu’il faut interroger les prompts sur les IA, il convient également de réfléchir aux consignes données aux photographes et aux pressions exercées pour qu’ils/elles remplissent des objectifs marketing tout en limitant les coûts. Malgré une « localisation » affichée dans les pratiques communicationnelles des ONG, des partages d’expérience avec les photographes invités à la conférence montrent une volonté des organisations de maintenir le contrôle éditorial tout en renforçant des hiérarchies existantes, comme l’ont souligné les organisateurs de la conférence dans un autre article[19]Arsenii Alenichev, Koen Peeters Grietens, Jonathan Shaffer et al., “Global health photography behind the façade of empowerment and decolonisa­tion”, Global Public Health, vol. 19, no. 1, 2024..

« Dans le monde polysémique des images, on ne peut attendre de l’IA qu’elle perçoive des enjeux extrêmement complexes et surtout très subjectifs, surtout quand elle ne tient pas compte du contexte. »

L’image générée par l’IA se retrouve ainsi coincée dans un paradoxe, entre ceux qui souhaitent l’utiliser comme une ressource de gain et de temps (techno-solutionisme) et ceux qui craignent un usage massif de la désinformation (deepfakes). Ces visions déterministes ne sauraient effacer la nécessité de penser les politiques visuelles reproduites par les algorithmes et la façon dont l’IA fige les hiérarchies sociales. À l’ère de l’image analogue, certains chercheurs évoquaient déjà qu’il ne fallait pas être « concerné par la présence [de photos] icônes, mais plutôt par l’absence de visualisations alternatives, critiques »[20]David Campbell, “The iconography of famine”, in Geoffrey Batchen, Mick Gidley, Nancy Miller et al. (eds.), Picturing Atrocity: Photography in Crisis, Reaktion Books, 2012, p. 89.. Dans le monde polysémique des images, on ne peut attendre de l’IA qu’elle perçoive des enjeux extrêmement complexes et surtout très subjectifs, surtout quand elle ne tient pas compte du contexte. Diversifier les bases de données pour nourrir l’IA pourrait contribuer à enrichir les visuels, mais ne saurait compenser les manquements éthiques des systèmes d’apprentissage automatisés. C’est aussi un changement radical dans la gouvernance de l’IA qu’il faut repenser.

Crédits photo : Daria Glakteeva

Cet article vous a été utile et vous a plu ? Soutenez notre publication !

L’ensemble des publications sur ce site est en accès libre et gratuit car l’essentiel de notre travail est rendu possible grâce au soutien d’un collectif de partenaires. Néanmoins tout soutien complémentaire de nos lecteurs est bienvenu ! Celui-ci doit nous permettre d’innover et d’enrichir le contenu de la revue, de renforcer son rayonnement pour offrir à l’ensemble du secteur humanitaire une publication internationale bilingue, proposant un traitement indépendant et de qualité des grands enjeux qui structurent le secteur. Vous pouvez soutenir notre travail en vous abonnant à la revue imprimée, en achetant des numéros à l’unité ou en faisant un don. Rendez-vous dans notre espace boutique en ligne ! Pour nous soutenir par d’autres actions et nous aider à faire vivre notre communauté d’analyse et de débat, c’est par ici !

References

References
1 Colloque « Artificial images in global health: Fakery before and in the era of AI », organisé par Arsenii Alenichev (Institut de médecine tropicale d’Anvers, Belgique), Sonya de Laat (McMaster University, Canada), Lisa Schwartz (McMaster University), Nassisse Solomon (Western University, Canada), Lulwama Mulalu (McMaster University), Carlos Rosas (McMaster University).
2 André Gunthert, « L’image parasite. Après le journalisme citoyen », Études photographiques, n° 20, 2007, p. 174-187.
3 Bolette Blaagaard, “Post-human viewing: a discussion of the ethics of mobile phone imagery”, Visual Communication, vol. 12, no. 3, 2013, pp. 359–374.
4  Susan Sontag, Sur La Photographie, Christian Bourgois éditeur, trad. Philippe Blanchard, 2000 (1977).
5 Fabrice d’Almeida, Images et Propagande, Éditions Casterman, 1995.
6 Christina Twomey, “Framing atrocity: Photography and humanitarianism”, History of photography, vol. 36, no. 3, 2012, pp. 255–264.
7 Dino A. Brugioni, Photo Fakery: The History and Techniques of Photographic Deception and Manipulation, Brassey’s, 1999.
8 Thomas Pontiroli, « Action contre la faim, le coeur sur l’humain », Stratégies, 14 mars 2017. https://www.strategies.fr/actualites/marques/1059051W/action-contre-la-faim-le-c-ur-sur-l-humain.html?utm_source=chatgpt.com
9 Bruno David, « Action Contre La Faim : Leila, le retour ? », Grotius International, 2 novembre 2012, https://grotius.fr/action-contre-la-faim-leila-le-retour
10 Voir le making-off de la campagne par Getty Images : “Behind the scenes of the Red Cross shoot”, https://www.youtube.com/watch?v=Yu629TmPEXA
11 Valérie Gorin, « Media representations of humanitarianism », in Silke Roth, Bandana Purkayastha and Tobias Denskus (eds.), Handbook on Humanitarianism and Inequality, Edward Elgar Publishing, 2024, pp. 281–294.
12 Kate Crawford and Trevor Paglen, “Excavating AI: the politics of images in machine learning training sets”, AI & SOCIETY, vol. 36, no. 4, 2021, pp. 1105–1116.
13 Arsenii Alenichev, Patricia Kingori and Koen Peeters Grietens, “Reflections before the storm: the AI reproduction of biased imagery in global health visuals”, The Lancet Global Health, vol. 11, no. 10, 2023, pp. 1496–1498. Ce travail fait partie d’une recherche post-doc qu’il conduit sur la santé globale.
14 Ibid., p. 1497.
15 Voir l’enquête menée par le journaliste Arnaud Robert sur Rosius Fleuranvil, un homme haïtien bénéficiaire de l’aide apportée par la Croix-Rouge suisse, dont l’image circulait encore en 2019 alors qu’il était décédé depuis 2016, https://labs.letemps.ch/interactive/2020/longread-haiti-aide-humanitaire-rosius
16 Voir le cas de MSF, largement critiqué sur les réseaux sociaux en 2022, d’une jeune femme en RDC survivante de violences sexuelles, qui avait donné son consentement pour que sa photo soit utilisée par MSF. La controverse a fait l’objet d’une analyse dans cette revue : Maëlle L’Homme et Françoise Duroch, « Considérations éthiques autour de l’utilisation de l’imagerie humanitaire », Alternatives Humanitaires, n° 21, 2022, p. 92-105, https://www.alternatives-humanitaires.org/fr/2022/11/28/considerations-ethiques-autour-de-lutilisation-de-limagerie-humanitaire
17 André Gunthert, “La peur dans les yeux”, L’image Sociale, 14 mars 2020, https://imagesociale.fr/8217
18 FairPicture, The Platform for Ethical and Compliant Content Production, https://fairpicture.org
19 Arsenii Alenichev, Koen Peeters Grietens, Jonathan Shaffer et al., “Global health photography behind the façade of empowerment and decolonisa­tion”, Global Public Health, vol. 19, no. 1, 2024.
20 David Campbell, “The iconography of famine”, in Geoffrey Batchen, Mick Gidley, Nancy Miller et al. (eds.), Picturing Atrocity: Photography in Crisis, Reaktion Books, 2012, p. 89.

You cannot copy content of this page