L’intelligence artificielle générative bouleverse-t-elle vraiment la communication humanitaire ? Lors d’une conférence que relate l’autrice, chercheurs et praticiens ont convenu que les IA reproduisent et amplifient des pratiques anciennes de manipulation visuelle. Des photos missionnaires du XIXe siècle aux campagnes actuelles, les stéréotypes du « sauveur blanc » et de la « victime passive » persistent. Les algorithmes figent ces représentations biaisées dans une « banque à stéréotypes » automatisée. L’enjeu n’est pas technique mais éthique : repenser la gouvernance de l’image humanitaire.
De nombreux changements sociétaux ont préfiguré les bouleversements de l’intelligence artificielle (IA) dans l’économie visuelle et participé à une mise à distance de nos rapports avec la prétention à la vérité portée par l’image. C’est ce qu’ont notamment rappelé les organisateurs du colloque qui s’est déroulé à la Fondation Brocher, à Genève, du 4 au 6 juin 2025[1]Colloque « Artificial images in global health: Fakery before and in the era of AI », organisé par Arsenii Alenichev (Institut de médecine tropicale d’Anvers, Belgique), Sonya de Laat (McMaster … Continue reading. Rassemblant des historiens, éthiciens, anthropologues, professionnels de l’image, praticiens de la santé et experts en communication, ces discussions s’étaient donné comme objectif d’interroger la manipulation visuelle avant et à l’ère de l’IA. De fait, elles furent emblématiques des questionnements qui agitent la communication humanitaire depuis l’apparition des IA génératives et la possibilité de créer des images relativement réalistes.
L’arrivée des réseaux sociaux et le retour de la photographie amateure par l’usage massif de téléphones portables ont participé à la démocratisation de la circulation des images dans la sphère publique dès les années 2000, comme en témoignent les images des attentats du 11-Septembre, ou du tsunami de 2004[2]André Gunthert, « L’image parasite. Après le journalisme citoyen », Études photographiques, n° 20, 2007, p. 174-187.. L’apparition des caméras de surveillance automatisées et autres systèmes de reconnaissance faciale ont également modifié les frontières entre l’humain et les machines, dans ce que l’on nomme désormais la vision post-humaine[3]Bolette Blaagaard, “Post-human viewing: a discussion of the ethics of mobile phone imagery”, Visual Communication, vol. 12, no. 3, 2013, pp. 359–374..
S’agit-il pour autant d’affirmer que les organisations humanitaires – des organisations non gouvernementales (ONG) locales aux institutions internationales – mobilisent de plus en plus les images générées par l’IA pour illustrer les situations de détresse ? Et si oui, dans quelle mesure ces images créées artificiellement bouleversent-elles les modes de production et de diffusion des représentations humanitaires ? Nous rendons compte ici d’une partie des tensions et paradoxes qui ont été explorés dans le cadre de cette conférence, laquelle a soulevé de nombreuses interrogations sur les types de manipulation, les biais des IA génératives, les risques de stéréotypisation, et la responsabilité éthique des créateurs d’images.
De nouvelles « fausses images » ?
Interroger l’usage de l’IA générative, c’est d’abord l’inscrire dans une continuité des pratiques communicationnelles déjà présentes dans le secteur. Ainsi, il implique de questionner les notions même de manipulation, de distorsion, de fausseté et d’artificialité dans l’image. C’est la supposée fidélité au réel qui est renégociée par l’arrivée des IA génératives et l’automatisation de la création, mais qui fait pourtant oublier que toute image reste une construction sociale et politique[4] Susan Sontag, Sur La Photographie, Christian Bourgois éditeur, trad. Philippe Blanchard, 2000 (1977)..
« C’est la supposée fidélité au réel qui est renégociée par l’arrivée des IA génératives et l’automatisation de la création. »
Si l’histoire de la manipulation visuelle a été faite pour les contextes de guerre et propagande politique[5]Fabrice d’Almeida, Images et Propagande, Éditions Casterman, 1995., cette analyse demeure parcellaire en ce qui concerne l’imagerie humanitaire. Les pratiques communicationnelles des ONG s’étant largement nourries des genres photographiques tels que la photo missionnaire ou le photojournalisme, nul doute qu’on puisse y retrouver les mêmes procédés de tromperie dans les représentations de la souffrance.
La première partie des discussions abordées a donc comparé historiquement les usages problématiques au fil du temps, comme les mises en scène ou les retouches photographiques. L’iconographie humanitaire regorge ainsi d’images dont il faut questionner l’authenticité. Parmi les exemples évoqués par les conférenciers, de nombreuses images montrent des scènes posées et des cadrages sélectifs sur des épisodes de violences coloniales ou de famines, remontant à la fin du XIXe siècle[6] Christina Twomey, “Framing atrocity: Photography and humanitarianism”, History of photography, vol. 36, no. 3, 2012, pp. 255–264.. Si les contraintes des appareils photographiques pouvaient justifier la composition posée des images à l’époque, ces visuels composent aujourd’hui une bonne partie des images générées par l’IA.
On trouve également des usages répétés, recyclés d’images, bien au-delà du contexte dans lequel elles ont été prises. Les images des famines africaines, dont la figure centrale – celui de l’enfant affamé et isolé – occupe largement les campagnes de levée de fonds depuis la famine biafraise, restent l’exemple le plus frappant. L’effacement du contexte, le rognage, le montage composite, qui font partie des techniques de manipulation les plus connues[7]Dino A. Brugioni, Photo Fakery: The History and Techniques of Photographic Deception and Manipulation, Brassey’s, 1999., sont détectables sur de nombreuses affiches, de Save the Children aux sociétés nationales des Croix-Rouge et Croissant-Rouge depuis les années 1960. Ce type d’image-totem nourrit également l’esthétique misérabiliste créée par l’IA, qui fournit à profusion des images de personnes racisées, permettant, in fine, l’effacement du cadre spatio-temporel et du référent historique.
Un autre trucage célèbre, celui de l’ellipse visuelle avant-après. Une campagne en avait fait les frais, celle de l’affiche « Leila » d’Action contre la Faim. En janvier 1994, l’ONG publiait une affiche montrant Leila, une femme émaciée (« avant ») puis en meilleure santé (« après »), accompagnée de la mention « Leila 100F plus tard »[8]Thomas Pontiroli, « Action contre la faim, le coeur sur l’humain », Stratégies, 14 mars 2017. … Continue reading. Cette technique fonctionne en mettant en opposition une image de mort imminente et l’action salvatrice. L’effet incitateur pour le spectateur a été développé dans les milieux publicitaires (notamment par les multinationales agroalimentaires), puis récupéré dans les visuels humanitaires. Cette technique soulève toutefois des interrogations quant à l’exagération temporelle qu’elle semble suggérer, et surtout sur l’authenticité des profils utilisés (les personnes représentées sont-elles vraiment les mêmes personnes avant/après ?). Comme le suggère Bruno David, ce procédé qui emprunte à la publicité mensongère « est-il applicable aux ONG sans risque de tromperie ?[9]Bruno David, « Action Contre La Faim : Leila, le retour ? », Grotius International, 2 novembre 2012, https://grotius.fr/action-contre-la-faim-leila-le-retour »
La question de l’authenticité interroge aussi les cas où des images ont dû être reproduites après événement, soit parce qu’il n’existait pas de visuels sur le vif, soit parce que la situation était jugée trop délicate pour utiliser de vraies photos. C’est le cas de la série d’affiches It’s a matter of life and death, produites lors du lancement de la campagne Health care in Danger du Comité international de la Croix-Rouge (CICR) en 2011. Destinées à sensibiliser les parties au conflit à respecter le personnel et les bâtiments sanitaires, ces affiches ont été réalisées artificiellement en studio en partenariat avec l’agence Getty et le photographe Tom Stoddart[10]Voir le making-off de la campagne par Getty Images : “Behind the scenes of the Red Cross shoot”, https://www.youtube.com/watch?v=Yu629TmPEXA. Parce qu’elles représentent toutes des personnes décédées (combattants et civils), il a été jugé impossible d’utiliser de vraies images, par respect pour la dignité des morts. Le CICR a aussi porté une attention particulière à ne pas reproduire des signes qui permettraient d’identifier des uniformes ou des lieux spécifiques, en rapport avec sa politique de neutralité – bien qu’il y ait suffisamment de référents visuels pour deviner un camp de réfugiés, un checkpoint, une ville bombardée. L’esthétique reproduite à l’époque en studio ressemble très fortement à ce que réalise l’IA.
Une banque à stéréotypes
Les exemples précédemment cités soulignent la manière dont les IA génératives prolongent, bien plus qu’elles ne renouvellent, des pratiques anciennes de mise en scène, de stéréotypisation et d’effacement des subjectivités locales. Les nombreuses études effectuées depuis une vingtaine d’années sur les représentations humanitaires ont démontré comment elles ont été historiquement produites par et pour le Nord global. Elles soulignent de profondes inégalités entre les communautés représentées et les publics ainsi qu’une tendance à l’essentialisation des souffrances. Ces représentations s’appuient sur des stéréotypes visuels et narratifs qui réduisent la complexité des contextes et renforcent des dynamiques néocoloniales[11]Valérie Gorin, « Media representations of humanitarianism », in Silke Roth, Bandana Purkayastha and Tobias Denskus (eds.), Handbook on Humanitarianism and Inequality, Edward Elgar Publishing, … Continue reading.
Une deuxième étape de la conférence a donc permis de questionner les biais structurels des IA génératives, notamment la persistance de biais de genre, de classe et de race, comme l’ont soulevé plusieurs études récentes. Cela est notamment dû aux défauts inhérents aux bases de données utilisées pour entraîner ces IA aux algorithmes, mais aussi au manque de retour d’expérience des utilisateurs. Les IA génératives nous tendent ainsi un miroir : en puisant dans des bases de données qui ne sont pas neutres, elles nous renvoient les logiques politiques, idéologiques et historiques inhérentes à notre vision du monde – une vision reproduite par les IA dans leur manière de classifier et comprendre l’information pour la reproduire[12]Kate Crawford and Trevor Paglen, “Excavating AI: the politics of images in machine learning training sets”, AI & SOCIETY, vol. 36, no. 4, 2021, pp. 1105–1116..
« La lecture automatisée faite par les algorithmes repère et renforce des tropes visuels. »
Dans le cas de l’imagerie humanitaire, la lecture automatisée faite par les algorithmes repère et renforce des tropes visuels. Parmi les stéréotypes les plus présents, on trouve la figure de l’enfant-icône et la surreprésentation des sauveurs blancs. Les populations du Sud global sont souvent ramenées à leur statut de victimes, passives et démunies, empêchant de les envisager comme des agents actifs de leur propre destinée. Les minorités restent invisibilisées ou stéréotypées, réduites à des rôles subalternes. Ainsi, dans une séance pratique consistant à expérimenter les différentes IA génératives d’images, les participants à la conférence ont pu reproduire les mêmes représentations que celles discutées dans la recherche d’Arsenii Alenichev et ses collègues[13]Arsenii Alenichev, Patricia Kingori and Koen Peeters Grietens, “Reflections before the storm: the AI reproduction of biased imagery in global health visuals”, The Lancet Global Health, vol. 11, … Continue reading. En 2023, cette expérience avait généré plus de 300 images avec la version 5.1 de MidJourney, sur la base de prompts cherchant à inverser les tropes classiques, comme « docteurs africains prenant soin d’enfants blancs malades ». Malgré de nombreuses tentatives, l’IA a quasiment systématiquement échoué à inverser ces tropes, en perpétuant le binôme problématique du sauveur blanc/malade noir, ou en caricaturant et exagérant des marqueurs culturels d’“africanité”.
Ces expériences soulignent, d’une part, à quel point « le racisme, le sexisme et le colonialisme sont des processus sociaux enracinés qui se manifestent dans les situations du quotidien, y compris dans l’IA »[14]Ibid., p. 1497.. D’autre part, elles mettent en lumière le manque de transparence inhérent à la procédure des systèmes d’apprentissage automatique : quelles sont les bases de données qui ont été utilisées, et qu’est-ce qui est fait pour assurer des représentations plus complexes et équitables ? ; comment les humains encodent-ils les images pour entraîner l’IA ? ; comment l’IA reconnaît-elle et labellise-t-elle les images ? ; quels sont les prompts qui ont été utilisés ?
Quelle éthique applicable ?
Dans ce cadre, le manque de transparence n’est qu’un des problèmes éthiques soulevés par l’utilisation d’images générées par l’IA. Les cas discutés ci-dessus ne sont que des exemples parmi d’autres, qui soulèvent l’urgence de redéfinir une éthique visuelle responsable et inclusive dans un contexte de transformation numérique. C’était l’enjeu de la troisième journée de la conférence, qui a servi à aborder les codes de conduite et autres chartes éthiques dans la communication humanitaire. Des cas médiatisés ces dernières années ont démontré que les droits des personnes représentées[15]Voir l’enquête menée par le journaliste Arnaud Robert sur Rosius Fleuranvil, un homme haïtien bénéficiaire de l’aide apportée par la Croix-Rouge suisse, dont l’image circulait encore en … Continue reading, notamment la question très délicate du consentement à l’image[16]Voir le cas de MSF, largement critiqué sur les réseaux sociaux en 2022, d’une jeune femme en RDC survivante de violences sexuelles, qui avait donné son consentement pour que sa photo soit … Continue reading, posent souvent problème.
Dans ce cas, l’usage de l’IA offre une solution en permettant de dépasser le problème du consentement. Toutefois, elle n’amène pas à réfléchir sur les modèles d’images utilisés pour nourrir l’IA – et les droits des personnes représentées. Que penser, par exemple, de certaines images artificielles vues pendant la conférence, représentant des fillettes réfugiées dont la pose et les yeux verts évoquent très clairement Sharbat Gula, l’iconique « fille afghane » prise en photo par Steve McCurry en 1984 ? Sait-elle que son image sert à esthétiser de manière trompeuse une représentation de la migration effectuée par des algorithmes ? Une double problématique du consentement, puisqu’une controverse avait émergé en 2020, critiquant le mode de production forcé et la fétichisation de la fillette par McCurry[17]André Gunthert, “La peur dans les yeux”, L’image Sociale, 14 mars 2020, https://imagesociale.fr/8217.
Le cas interroge les rapports de pouvoir disproportionnés dans les contextes humanitaires, et la difficulté de ce que constitue un consentement éclairé et itératif, d’autant plus quand l’usage de l’image porte sur des décennies et qu’il passe de la sphère analogique à la sphère numérique. Faut-il exiger plus de transparence des entreprises qui acceptent de fournir leur banque d’images ? Que penser des agences humanitaires qui pourraient fournir leurs archives visuelles pour nourrir les algorithmes – est-ce un gage de moralité, de responsabilité pour détourner les biais de l’IA ? Autant de questions qui restent en suspens, qui montrent la nécessité de repenser les parcours et les constructions visuelles. Ne pas mentionner explicitement le caractère artificiel des images utilisées dans les campagnes constitue une forme de tromperie.
Un usage relativement étendu de l’IA ne saurait remplacer le devoir de redevabilité des organisations humanitaires. Dans une relation éthique, le consentement est plus qu’une autorisation laissée à l’ONG de faire usage de l’image ; il est avant tout une relation établie avec un bénéficiaire auquel on accorde plusieurs droits : le droit d’être informé, le droit d’effacer, de rectifier des informations, mais aussi le droit à être oublié. Ces éléments juridiques, en accord avec le règlement général sur la protection des données (RGPD), sont notamment défendus par l’organisation FairPicture, un collectif de photographes présent à la conférence[18]FairPicture, The Platform for Ethical and Compliant Content Production, https://fairpicture.org. Par ailleurs, ce type d’initiatives souligne la nécessité de repenser la collaboration avec des créateurs d’images authentiques. De même qu’il faut interroger les prompts sur les IA, il convient également de réfléchir aux consignes données aux photographes et aux pressions exercées pour qu’ils/elles remplissent des objectifs marketing tout en limitant les coûts. Malgré une « localisation » affichée dans les pratiques communicationnelles des ONG, des partages d’expérience avec les photographes invités à la conférence montrent une volonté des organisations de maintenir le contrôle éditorial tout en renforçant des hiérarchies existantes, comme l’ont souligné les organisateurs de la conférence dans un autre article[19]Arsenii Alenichev, Koen Peeters Grietens, Jonathan Shaffer et al., “Global health photography behind the façade of empowerment and decolonisation”, Global Public Health, vol. 19, no. 1, 2024..
« Dans le monde polysémique des images, on ne peut attendre de l’IA qu’elle perçoive des enjeux extrêmement complexes et surtout très subjectifs, surtout quand elle ne tient pas compte du contexte. »
L’image générée par l’IA se retrouve ainsi coincée dans un paradoxe, entre ceux qui souhaitent l’utiliser comme une ressource de gain et de temps (techno-solutionisme) et ceux qui craignent un usage massif de la désinformation (deepfakes). Ces visions déterministes ne sauraient effacer la nécessité de penser les politiques visuelles reproduites par les algorithmes et la façon dont l’IA fige les hiérarchies sociales. À l’ère de l’image analogue, certains chercheurs évoquaient déjà qu’il ne fallait pas être « concerné par la présence [de photos] icônes, mais plutôt par l’absence de visualisations alternatives, critiques »[20]David Campbell, “The iconography of famine”, in Geoffrey Batchen, Mick Gidley, Nancy Miller et al. (eds.), Picturing Atrocity: Photography in Crisis, Reaktion Books, 2012, p. 89.. Dans le monde polysémique des images, on ne peut attendre de l’IA qu’elle perçoive des enjeux extrêmement complexes et surtout très subjectifs, surtout quand elle ne tient pas compte du contexte. Diversifier les bases de données pour nourrir l’IA pourrait contribuer à enrichir les visuels, mais ne saurait compenser les manquements éthiques des systèmes d’apprentissage automatisés. C’est aussi un changement radical dans la gouvernance de l’IA qu’il faut repenser.
Crédits photo : Daria Glakteeva
