intelligence artificielle artificial intelligence

Dans la perspective de son 32numéro à paraître en juillet 2026, la revue Alternatives Humanitaires lance un appel à contributions pour son dossier qui sera consacré au thème dont le titre provisoire est « Intelligence artificielle : usages, tensions et enjeux » Si vous êtes intervenant·e, chercheur·euse ou observateur·rice du secteur humanitaire et solidaire international et souhaitez soumettre un projet d’article sur ce thème, merci d’adresser un résumé de votre problématique, un plan provisoire et une courte biographie du/des auteur·rices (2 pages maximum) avant le 30 janvier 2026, à l’adresse mail suivante : contact@alternatives-humanitaires.org La réponse vous sera adressée dans les 15 jours qui suivront.

L’article final – rédigé en français ou en anglais – devra être rendu le 26 mai 2026 au plus tard, le calibrage moyen se situant aux alentours de 15 000 signes, espaces compris (soit 2400 mots environ en français, 2200 mots en anglais). Entre sept et neuf articles seront retenus dans le cadre de ce dossier.

Pour chaque numéro, nous étudions également les projets d’articles portant sur des thématiques en relation avec l’action humanitaire et solidaire autres que celle du dossier, et qui trouvent place dans les rubriques Perspectives, Transitions, Innovations, Éthique, Reportage ou Opinion. Nous vous invitons à nous faire parvenir vos propositions.

 


Intelligence artificielle : usages, tensions et enjeux

Un dossier/focus copiloté par Pierre Gallien – Directeur, Innovation, Impact & Information, Handicap International – Humanité & Inclusion, membre du comité de rédaction d’Alternatives Humanitaires –, et Boris Martin, rédacteur en chef

 

L’intelligence artificielle (IA) ne frappe plus à la porte du secteur humanitaire : elle s’est déjà invitée dans les bureaux, sur les terrains et donc dans les pratiques quotidiennes des organisations d’aide. Ces usages, encore discrets il y a peu, se sont banalisés à une vitesse qui laisse encore peu de place au recul critique. Et c’est précisément la raison pour laquelle il faut s’y atteler.

À l’instar de ce que l’on observe dans la plupart des secteurs, lucratifs ou non, de nos sociétés, cette accélération pose une question aussi simple qu’inconfortable : nous laissons-nous emporter par une vague technologique dont nous ne maîtrisons ni la direction ni les conséquences ou réussirons-nous à construire collectivement un usage responsable de l’IA ? Car si celle-ci promet des gains d’efficience indéniables, elle transforme simultanément les contextes dans lesquelles les acteurs de la solidarité interviennent, la manière dont ils le font, et les fondements mêmes de leur relation au réel, à la décision et aux personnes qu’ils servent.

La revue Alternatives Humanitaires consacre son prochain numéro à ce moment de bascule que provoque l’émergence de cette technologie. Il ne s’agit évidemment pas de céder à un enthousiasme technophile, ni d’alimenter une résistance stérile au changement. Il est question de prendre la mesure d’une transformation qui affecte déjà les organisations, les métiers, les principes et les responsabilités propres au secteur de l’aide dans un exercice de réflexion critique. Nous lançons donc un appel à contributions autour de trois axes structurants, qui forment ensemble une grille de lecture pour appréhender cette (r)évolution en cours.

Des contextes d’intervention transformés : quand l’IA redéfinit les règles du jeu

L’intelligence artificielle ne modifie pas seulement les outils de travail des organisations non gouvernementales (ONG) : elle transforme les environnements dans lesquels interviennent les acteurs humanitaires, tout comme ceux – même si c’est sans doute dans une moindre mesure – du développement, de l’environnement ou des droits humains. Dans les conflits contemporains, l’IA est en effet déjà mobilisée à l’appui des armes : pour identifier des cibles, coordonner des attaques de drones, saturer l’espace informationnel de contenus manipulés, etc… Avec le programme Lavander, les forces israéliennes en ont fait un outil central de leur doctrine de ciblage à Gaza[1]Elizabeth Dwoskin, “Israel built an ‘AI factory’ for war. It unleashed it in Gaza”, The Washington Post, 29 December 2024., prétendant atteindre une précision chirurgicale qui réduirait les dommages civils. En Ukraine, les drones sont maintenant dopés à l’IA tout autant pour renforcer les capacités de défense que pour autonomiser les attaques et atteindre leur cible au sol malgré les brouillards électroniques qui les coupent du pilote[2]Emmanuel Grynszpan, « Ukraine : sur le champ de bataille, l’IA décuple la précision des frappes », Le Monde, 14 novembre 2025..

Cette militarisation de l’IA pose des questions cruciales pour l’action humanitaire. Si la guerre devient algorithmique, comment les principes du droit international humanitaire – distinction, proportionnalité – peuvent-ils encore s’appliquer ? Comment négocier l’accès humanitaire dans des environnements où la décision de frappe est (quasiment) déléguée à des systèmes opaques ? Comment protéger les civils lorsque l’ennemi lui-même devient une catégorie générée par un modèle prédictif, avec sa marge d’erreur intégrée ?

Il faut aussi soulever un enjeu politique majeur : l’asymétrie entre innovation militaire et innovation humanitaire. Les conflits récents montrent une disproportion criante : des moyens considérables pour l’anticipation, la surveillance, la désignation de cibles et, en miroir, des moyens contraints pour l’accès, la protection et la réponse humanitaires. L’idée d’une guerre « plus propre » grâce aux algorithmes est une narration puissante, mais l’humanitaire sait que la propreté technologique ne supprime ni la violence, ni l’ambiguïté, ni les dommages humains. Quelle dynamique soutient l’innovation militaire, et quel modèle soutient l’innovation humanitaire ? Peut-on espérer que les mêmes dynamiques servent des objectifs opposés ? Ou devons-nous revendiquer des communs technologiques, des standards ouverts, des garde-fous et des investissements publics orientés vers la protection plutôt que vers la domination ?

L’IA ne transforme pas seulement les conflits armés. Dans d’autres contextes (tremblements de terre, inondations, glissements de terrain, etc.), elle promet une anticipation inédite : modèles climatiques prédictifs, analyse en temps réel d’images satellites, cartographie instantanée des dégâts. Pourtant, cette promesse d’accélération porte aussi en elle des risques : celui de décisions précipitées sur la base de données incomplètes, celui d’une confiance excessive dans des modèles qui « parlent bien » même lorsqu’ils se trompent, celui d’une marginalisation des populations. Car l’IA amplifie des biais structurels : quelles données alimentent ces systèmes et pour quelles entités (civiles, militaires) ? Dans quelles langues ? Avec quelles représentations du monde ? Le risque est réel de voir se standardiser des réponses techniques déconnectées des savoirs locaux, des priorités communautaires, des dynamiques sociales non quantifiables.

Pour ce premier axe, nous recherchons des contributions qui documentent, analysent et interrogent ces transformations contextuelles. Comment l’IA redéfinit-elle concrètement les règles d’engagement dans les conflits aussi bien que lors d’interventions post-catastrophe ? Quels impacts sur la protection des civils, sur l’accès humanitaire, sur la responsabilité des parties à un conflit ? Comment les organisations humanitaires peuvent-elles naviguer dans des environnements où l’information elle-même devient une arme ? Quels enseignements tirer des expériences récentes en Ukraine et à Gaza mais aussi dans d’autres contextes ? Comment anticiper les dérives, préserver les principes, réaffirmer la primauté du droit international humanitaire face à l’illusion, indécemment entretenue, d’une guerre « plus propre » ?

Des métiers humanitaires bouleversés : compétences, hiérarchies et nouveaux équilibres

Si l’IA transforme les contextes, elle reconfigure aussi en profondeur les métiers humanitaires, ceux de l’aide en général. La promesse initiale est simple : gagner en efficience, automatiser les tâches répétitives, libérer du temps pour les activités à plus forte valeur ajoutée. Mais la réalité est plus complexe, car l’IA ne se contente pas d’accélérer : elle redistribue les compétences, réorganise les hiérarchies professionnelles et interroge ce qui fait la valeur d’un travailleur humanitaire.

Prenons l’exemple de l’évaluation. Traditionnellement, cette fonction exigeait une expertise méthodologique solide, une capacité d’écoute et d’analyse qualitative, une connaissance fine des dynamiques locales. Aujourd’hui, des algorithmes peuvent extraire des tendances dans des milliers de verbatims, identifier des signaux faibles, produire des synthèses élégantes. L’évaluateur humain reste-t-il indispensable ? Pour interpréter, contextualiser, confronter les résultats au terrain, porter un jugement éthique ? Ou bien devient-il un simple « valideur » de sorties algorithmiques ?

Dans la recherche de financements, l’IA peut rédiger des notes conceptuelles, aligner un projet sur une stratégie bailleur, optimiser le « storytelling » pour maximiser les chances de succès. Formidable outil de démocratisation pour les petites structures qui manquent de ressources ou nouveau facteur de compétition qui avantagera ceux qui maîtrisent déjà les bons outils, les bons modèles, les bons « prompts » ? La question se pose : l’innovation rédactionnelle risque-t-elle de remplacer l’innovation sociale ?

En logistique, l’IA peut optimiser les chaînes d’approvisionnement, anticiper les ruptures, simuler des scénarios alternatifs, comme imaginer plusieurs possibilités d’acheminement face à un corridor devenu impraticable. Mais elle peut aussi encourager une illusion de contrôle : un modèle optimise ce qu’on lui donne, pas ce qui est vrai, et encore moins à l’instant T. Or l’humanitaire travaille en temps réel avec des routes qui disparaissent, des autorisations qui se renégocient, des marchés qui s’effondrent, des risques qui se déplacent. L’outil doit rester au service de l’expérience terrain, pas l’inverse.

Pour ce deuxième axe, nous attendons des contributions qui explorent ces reconfigurations professionnelles. Quels métiers humanitaires sont les plus affectés par l’IA ? Quelles compétences deviennent obsolètes, lesquelles se renforcent, lesquelles émergent ? Comment les organisations gèrent-elles ces transitions ? Quelles formations, quelles politiques RH, quels investissements pour accompagner ces mutations ?

Des enjeux transversaux : réel, décision, inégalités et résilience

Au-delà des contextes et des métiers, l’IA soulève des questions fondamentales qui traversent l’ensemble du secteur de l’aide. Ces enjeux transversaux forment une toile de fond qui doit nourrir notre réflexion collective.

Le premier enjeu concerne notre rapport au réel. L’IA fabrique du vraisemblable à grande échelle : textes, images, voix, vidéos. Elle ne crée pas seulement du faux ; elle crée du doute. Et dans l’action humanitaire, le doute a un coût. Il retarde l’intervention, fragilise la négociation, expose les équipes, érode la confiance avec les communautés. Comment préserver la crédibilité des témoignages et des analyses dans un monde saturé de contenus synthétiques ?

Un deuxième enjeu concerne la prise de décision. L’IA peut assister, mais elle ne doit pas arbitrer. La tentation est connue : face à la complexité, déléguer au modèle. Or l’humanitaire ne décide pas seulement sur la base d’optimisations techniques ; il décide sur la base de valeurs, de dilemmes, de droits, de priorités – parfois discutables. Une IA ne peut pas porter la responsabilité morale d’un choix. Comment construire des garde-fous ? Comment imposer une règle simple : la décision finale doit rester explicable, contestable, assumée ? Comment éviter que l’automatisation ne devienne un refuge pour échapper à la difficulté de décider ?

Le troisième enjeu concerne les inégalités. Si nous n’y prenons pas garde, l’IA peut accélérer les fossés : entre grandes et petites organisations, entre langues dominantes et langues minorées, entre zones urbaines connectées et zones rurales oubliées. L’efficience ne doit pas devenir une nouvelle frontière de l’inégalité. Comment construire des usages pertinents et inclusifs ? Comment garantir que les gains de productivité profitent aussi aux acteurs locaux, à toutes les structures de la société civile, aux populations elles-mêmes ?

Enfin un dernier enjeu, souvent oublié, concerne la résilience. Que se passerait-il si la « bulle de l’IA » éclatait ? Si des dépendances – autres que celles récemment identifiées avec douleur – se révélaient critiques ? Comment le secteur de l’aide, déjà fragilisé par les multiples attaques – souvent orchestrées par certains leaders de l’IA d’ailleurs… – peut-il conserver une expertise « traditionnelle » : capacité d’analyse, méthodes robustes, procédures de vérification, savoir-faire logistique éprouvé, compétences en négociation, etc. ? L’IA peut augmenter ces savoirs, mais elle ne doit pas les remplacer.

Pour ce troisième axe, nous recherchons des contributions qui interrogent ces dimensions transversales. Comment l’IA modifie-t-elle notre perception de la vérité et notre capacité à documenter le réel ? Quels cadres éthiques et juridiques pour encadrer l’automatisation de la décision humanitaire ? Comment éviter que l’IA n’aggrave les inégalités Nord-Sud, entre grandes et petites structures ? Quelles stratégies de résilience face aux risques de dépendance technologique ? Comment construire une souveraineté d’usage qui ne soit ni un refus technophobe ni une soumission aux logiques des géants technologiques ou des acteurs militaires ?

Types de contributions attendues

Comme pour chaque numéro de la revue, ce numéro privilégie la diversité des formats et des approches, afin de croiser les regards et d’enrichir la réflexion collective. Nous recherchons des contributions qui allient rigueur analytique et ancrage dans les réalités du terrain, qui documentent des expériences concrètes tout en proposant des montées en généralité, qui posent des questions inconfortables sans renoncer à la nuance. Les approches pluridisciplinaires – droit international humanitaire, éthique appliquée, science politique, sociologie des organisations, études critiques des technologies – seront particulièrement bienvenues. Les retours d’expérience d’organisations humanitaires ayant expérimenté l’IA constituent une autre catégorie prioritaire. Qu’il s’agisse de succès, d’échecs, de tensions non résolues ou de dilemmes éthiques, ces témoignages documentés et réflexifs sont précieux. Nous recherchons des contributions qui assument la complexité, qui reconnaissent les limites autant que les bénéfices, qui partagent les leçons apprises plutôt que les récits lissés à des fins de communication.

Les analyses de cadres réglementaires et de gouvernance sont également attendues. Comment les États, les organisations internationales, les bailleurs de fonds encadrent-ils (ou non) l’usage de l’IA dans l’humanitaire ? Quels standards émergent ? Quelles lacunes persistent ? Comment articuler innovation technologique et respect des principes humanitaires, protection des données personnelles, redevabilité ?

Enfin, les contributions prospectives et critiques ont toute leur place. Où allons-nous ? Quels futurs souhaitables, quels futurs à éviter ? Comment construire collectivement une intelligence artificielle au service de l’humanité, et non l’inverse ? Ces réflexions, pour être fécondes, doivent s’ancrer dans une connaissance fine du secteur humanitaire et éviter les généralisations hâtives ou les prophéties déconnectées du réel.

 

intelligence artificielle

Cet article vous a été utile et vous a plu ? Soutenez notre publication !

L’ensemble des publications sur ce site est en accès libre et gratuit car l’essentiel de notre travail est rendu possible grâce au soutien d’un collectif de partenaires. Néanmoins tout soutien complémentaire de nos lecteurs est bienvenu ! Celui-ci doit nous permettre d’innover et d’enrichir le contenu de la revue, de renforcer son rayonnement pour offrir à l’ensemble du secteur humanitaire une publication internationale bilingue, proposant un traitement indépendant et de qualité des grands enjeux qui structurent le secteur. Vous pouvez soutenir notre travail en vous abonnant à la revue imprimée, en achetant des numéros à l’unité ou en faisant un don. Rendez-vous dans notre espace boutique en ligne ! Pour nous soutenir par d’autres actions et nous aider à faire vivre notre communauté d’analyse et de débat, c’est par ici !

References

References
1 Elizabeth Dwoskin, “Israel built an ‘AI factory’ for war. It unleashed it in Gaza”, The Washington Post, 29 December 2024.
2 Emmanuel Grynszpan, « Ukraine : sur le champ de bataille, l’IA décuple la précision des frappes », Le Monde, 14 novembre 2025.

You cannot copy content of this page