La revue trimestrielle du Gsara


Entretien

L’IA dans les ASBL : entre accélération et réappropriation

Pierre VangrootloonOptiques n°10 – hiver 2025


Parler d’intelligence artificielle aujourd’hui, c’est accepter de naviguer entre fascination et inquiétude. Philippe Hensmans, ancien Directeur d’Amnesty International, résume cela d’une phrase qui revient souvent dans ses accompagnements : « On ne peut pas critiquer ou adopter l’IA sans comprendre comment elle fonctionne. » Et justement, dans beaucoup d’organisations publiques ou sociales, cette compréhension fait défaut.

Le quotidien déborde : CPAS saturés par de nouvelles réglementations, équipes épuisées par les urgences, associations forcées de « faire mieux avec moins ». Dans ce contexte, l’IA peut sembler à la fois une bouée et une menace. « Le problème n’est pas la technologie, mais la vitesse à laquelle elle arrive », constate-t-il. Pendant que certain·es s’approprient l’outil en un après-midi, d’autres ont besoin de plusieurs jours. Le fossé générationnel, technique ou social se creuse, et avec lui les tensions dans les équipes.

Pourtant, l’IA n’est pas seulement un outil : elle agit comme un révélateur. Elle oblige à examiner les mécanismes internes – les flux, les lenteurs, les répétitions, les tâches invisibles. Elle pose la question des métiers appelés à disparaître, comme la dactylographie autrefois, et de ceux qu’il faudra entièrement repenser.

Promesses d’efficacité, vertige éthique
Au cœur des formations proposées par sa structure (K1M – Comme un mardi), Philippe Hensmans introduit la notion fondamentale de l’apprentissage structuré. Ainsi, en une journée, Certaines institutions, comme l’UCL notamment, en ont compris l’importance. « Généralement, je prends le temps de la matinée pour aborder les enjeux et le fonctionnement, et l’après-midi pour s’emparer d’ un sujet bien précis de manière critique. Résultat : En vingt minutes, on peut analyser jusqu’à 200 pages. Une prouesse qui, il y a quelques mois encore, semblait irréaliste », raconte l’ancien d’Amnesty.

Mais cette rapidité d’exécution s’accompagne d’un vertige. Les outils réellement sûrs et éthiques coûtent cher. Beaucoup rêvent de solutions open source, locales, fonctionnant hors ligne, pour garantir confidentialité et conformité au RGPD. « Utiliser l’IA, oui, mais pas au prix d’une dépendance totale aux États-Unis ou à la Chine », martèle-t-il. La contradiction devient flagrante pour des organisations qui prônent la sobriété numérique ou la justice climatique : comment accepter un outil énergivore lorsque, dans le même temps, on interdit l’avion sous les 600 kilomètres ?

Il y a également l’inconfort de la légalité : on sait qu’on ne peut pas introduire certaines données dans des outils hébergés aux États-Unis, mais on sait aussi qu’ils pourraient nous faire gagner un temps considérable. « Pour certaines associations, utiliser l’IA est presque schizophrénique », résume-t-il. L’outil devient indispensable, mais son usage correct est un casse-tête permanent.

Réinventer le travail plutôt que courir après
Dans de nombreuses équipes, l’IA est déjà utilisée en cachette. On n’ose pas le dire, par peur d’être jugé ou de « tricher ». Pourtant, dès qu’un espace d’échange se crée, quelque chose se libère. « Une fois que les craintes sortent, on peut commencer à travailler intelligemment », explique Hensmans. À partir de là, l’IA devient un levier pour repenser les missions, pas pour les alourdir.

Rédiger un PV en quelques minutes plutôt qu’en trois heures, synthétiser une réunion Teams, préparer en une heure une présentation sur un sujet qu’on ne connaît pas encore… Ce ne sont pas des prouesses techniques, mais des transformations profondes de la manière de travailler. « Je ne demande jamais à l’IA quelque chose que je ne connais pas déjà », dit-il, rappelant ainsi que l’outil n’est pas là pour produire à notre place, mais pour amplifier nos capacités.

Beaucoup n’exploitent pourtant que 10 % du potentiel. Les progrès viennent de l’entraînement : construire des meta-prompts, organiser ses contenus, tenir des carnets de bord, archiver lectures et podcasts dans des notebooks, s’outiller pour gagner du temps sans perdre le sens. Le secteur associatif, déjà fragilisé par la baisse des subsides, les appels à projets et la charge administrative, voit là une opportunité : regagner du temps de cerveau, faire enfin les 20 % de projets inspirants que l’on repousse toujours.

Mais derrière cette perspective enthousiasmante plane un risque plus profond : celui d’un élargissement des inégalités. « Le plus grand danger, ce n’est pas l’IA elle-même, c’est l’écart qu’elle va créer », entre générations, entre milieux sociaux, entre organisations capables de se former et celles qui resteront à la traîne. Comme toute technologie majeure, l’IA agit comme un miroir — elle révèle nos forces, nos fragilités, nos blocages. Reste à savoir ce que nous voulons y voir. Et surtout : ce que nous voulons en faire.

Pierre Vangrootloon

Chargé de communication – GSARA asbl