La revue trimestrielle du Gsara


Rencontre

Questions naïves à un chercheur en IA (parce que parfois, on flippe)

Bernard FostierOptiques n°10 – hiver 2025

Ces questions ont été soumises fin 2024 par le GSARA à Nathan Hubens qui est docteur en sciences informatiques et fondateur de « Faster AI », une compagnie qui cherche à optimiser les réseaux de neurones.

Questions : Bernard Fostier (http://charleroi.gsara.be)

Réponses : Nathan Hubens (https://nathanhubens.github.io/)

LA BÊTE

Est-il vrai que les systèmes actuels basés sur des réseaux de neurones – comme ceux publiés par OpenAI, DeepSeek, Meta AI, Mistral, Gemini… – sont en grande partie incompris ? Autrement dit, ne maîtrise-t-on pas vraiment leur fonctionnement interne et se contente-t-on d’observer qu’ils fonctionnent, souvent même mieux que ce que leurs propres concepteurs avaient anticipé ?

L’IA a marqué depuis une dizaine d’années une transition d’une science rationaliste vers une science empiriste. Cela a été rendu possible grâce à un accès à une quantité gigantesque de données et à des ressources de calculs capables de les traiter. Ce changement a transformé notre rapport à la science : la précision des prédictions d’un modèle tend désormais à primer sur notre capacité à en comprendre les mécanismes internes. Les réseaux de neurones IA actuels ont été conçus selon des principes clairs et bien compris: leur architecture, optimisation, entraînement, … sont des concepts qui sont étudiés et appréhendés pour la plupart depuis de nombreuses années.

La chose qui est en revanche plus difficile à expliquer est l’émergence de certaines capacités (raisonnement, créativité, …) lorsqu’un modèle atteint une certaine taille. Le nombre de paramètres présents dans les réseaux de neurones IA actuels est tellement grand (plusieurs milliards), qu’il nous est impossible de décrire précisément le rôle de chacun d’entre eux. On peut observer les effets, faire des corrélations, et interpréter partiellement les résultats, mais globalement, la complexité des représentations internes dépassent notre capacité actuelle à les expliquer de manière satisfaisante. Un peu comme notre propre cerveau, nous sommes en mesure de définir ses fonctions et de les relier à certaines zones, mais détailler chaque interaction interne est hors de notre portée.

Générée par Sora avec le prompt : « deux enfant regarde une boite qui contient un « réseau de neurones », il y ont rentré une chenille et guette la sortie des papillons. pen press cartoon »

On redoute souvent la puissance des grandes entreprises qui contrôlent les outils d’IA grand public et l’on imagine l’open-source comme une alternative plus “démocratique”. Est-ce naïf ? Rendre publics des modèles aussi puissants que ceux d’OpenAI serait-ce dangereux ? Doit-on prendre au sérieux des menaces comme Chaos-GPT ? L’open-source peut-il vraiment éviter une perte de contrôle ?

Les bienfaits de l’IA open-source est, comme beaucoup de choses, à nuancer. En rendant le code et les modèles accessibles, on permet à un plus large éventail d’acteurs (PMEs, universités, …) de tester les modèles, repérer leurs failles et biais, et d’innover, tout en réduisant notre dépendance à quelques entreprises qui dominent très largement le marché. À l’inverse, l’open-source facilite les usages malveillants (désinformation, deepfakes, …), c’est pourquoi il est important de prévoir des gardes-fous avant la mise à disposition de modèles puissants (évaluation et benchmarking, publication graduelle, cadre juridique, …).

L’open source et la recherche ouverte n’est donc pas forcément une solution miracle, elle accélère les progrès comme les dérives. La question n’est pas forcément de savoir s’il faut ouvrir ou non la recherche, mais surtout sous quelles conditions et avec quels contrôles.

Encadrer le déploiement et les usages ?

Si les réseaux de neurones IA sont des “boîtes noires”, un audit par quelques experts suffirait-il à permettre aux décideurs de les encadrer légalement et de fixer les limites de l’automatisation ? La vitesse de l’innovation n’est-elle pas incompatible avec le temps politique ? Comment le DSA européen a-t-il abordé ces enjeux, et protège-t-il vraiment des dérives possibles ?

Un problème qui est pour moi majeur est le déséquilibre des ressources entre les organismes privés et publics, transformant les domaines technologiques tels que l’IA en quasi-oligopole. Quasiment plus aucune université, centre de recherche, ou organisme public n’a les capacités ou ressources pour rivaliser avec les grands acteurs privés de l’IA. Cela signifie en grande partie que ces mêmes acteurs décident de la direction que prend la recherche, souvent orientée vers une maximisation de la dépendance à leurs produits et donc de leur profit, ou vers leur propres idéaux sociétaux. Ce décalage est d’autant plus important que le développement de ces mêmes technologies est largement incompatible avec le temps politique.

De nouveaux modèles sont développés tous les mois, alors que l’élaboration de nouvelles loi demande des consultations, débats, … ce qui prend souvent des années. La légifération sur l’IA se fait ainsi généralement plus souvent en réaction plutôt qu’en anticipation.

Le DSA a posé une première brique en imposant aux très grandes plateformes un devoir d’audit et la gestion des risques systémiques. L’AI Act joue également un grand rôle sur la réglementation de l’IA en Europe: transparence technique et recherche ouverte, processus simplifié de révision des exigences de sécurité, … Mais l’Europe ne possédant aucun des principaux acteurs du développement d’IA, elle a levier plus limité sur sa réglementation en dehors de son territoire.

L’Europe se trouve en quelques sortes à la croisée des chemins: faut-il continuer à réglementer de manière stricte en accord avec nos valeurs et notre vision de la société au risque d’entraver notre développement de l’IA, ce qui nous rend moins compétitifs face à d’autres acteurs étrangers qui risquent de nous imposer leur vision sans que l’on ne puisse plus réagir ?

Générée avec Sora et le prompt : « un petit cerveau électronique européen est entouré d’une barrière. Il est malheureux en regardant les gros cerveaux américains et chinois qui gambadent grassement en faisant des étincelles dans une prairie de billets verts. Press cartoon style »

ALIÉNÉS ?

La qualité des données est cruciale pour l’IA : comment éviter qu’elle ne se dégrade si, à terme, la majorité des contenus provient d’autres IA ? Les images générées dans le style de Miyazaki semblent toujours moins authentiques que les originales : est-ce une illusion, et les créations artificielles finiront-elles par être jugées supérieures aux nôtres ? Ce phénomène alimente-t-il, d’une certaine manière, l’idée d’un “grand remplacement” par les machines ?

La qualité des données fournies à l’entraînement de l’IA a toujours été une nécessité à son bon fonctionnement. Nous arrivons à un moment où les plus grand modèles ont déjà eu accès à la plupart des données facilement accessible sur internet (Wikipédia, Reddit, Facebook …) et la question de l’ajout de données synthétiques pour poursuivre le développement de nouveaux modèles est un sujet de recherche important, au risque de répéter et renforcer des comportements biaisés si les modèles venaient à être majoritairement entraînés sur des données de versions antérieures, moins performantes.

C’est également pourquoi il est critique de préserver des corpus humains, dont la provenance est garantie. Le prétendu “grand remplacement” créatif n’est pas une fatalité ; il met surtout en lumière la valeur grandissante de la création authentique et de ceux capables de la discerner.

Les modèles O1, O3 d’OpenAI ont été crées en grande partie par …. l’intelligence artificielle. A-t-on déjà perdu le contrôle ?

Tout comme l’IA est déjà utilisée pour générer du texte, elle est également utilisée pour rédiger du code, nécessaire au développement de nouvelles IA. Comme énoncé précédemment, la plupart des composants techniques sont déjà connus et donc facilement implémentables par une IA elle-même. Par contre, le choix des objectifs, des expérimentations, doit de toute façon rester dans les mains d’un humain expert.

Dire que l’IA est désormais majoritairement créée par l’IA est factuellement vrai, mais aussi ambigu que dire que les machines industrielles sont créées par d’autres machines industrielles. Ce sont des outils d’aide à la production, toujours pilotés par des opérateurs expérimentés.

Si les systèmes deviennent meilleurs que nous dans la plupart des domaines ( math, sciences, création artistiques, …) qu’allons nous devenir en tant qu’humain ?

Comme l’imprimerie a remplacé des milliers de copistes, les machines industrielles des milliers d’ouvriers, la photographie des milliers de peintres, l’IA est un technologique qui automatise une partie de nos tâches intellectuelles et peut donc concurrencer l’humain sur ces aspects. Chaque révolution technologique bouleverse l’organisation de notre société, et il est souvent difficile d’en estimer tous les effets, mais aucune n’a rendu l’homme obsolète.

La créativité naît souvent de la contrainte, les avancées technologiques précédemment citées ont permis l’essor de certains arts (littérature, architecture, photographie, …). L’IA s’inscrit dans la même logique, elle remplace le répétitif, mais pas la créativité et l’imagination de l’humain.

Devons-nous nous défaire philosophiquement de tout esprit de compétition si nous voulons ne pas nous aliéner ?

Je ne pense pas qu’il faille se défaire de tout esprit de compétition, mais il est important de comprendre où se situe celui-ci. Il ne se situe pas sur les tâches automatisables et redondantes, il se situe par contre sur l’esprit critique, le cadrage d’un problème, son inscription dans un contexte social, … Il est ainsi important de comprendre comment utiliser les technologies actuelles de manière complémentaire avec nos compétences. Elles n’excluent pas l’humain, mais le placent dans un rôle d’arbitre, qui fixe les règles et valide les résultats.

Dans quels domaines particulièrement sensibles devrait-on éviter d’utiliser des modèles génératifs de ce type (par exemple : gestion du nucléaire, de l’énergie, applications militaires, gestion des stocks alimentaires, cybersécurité, bio-ingénierie, etc.) ?

Il ne sera jamais envisageable de laisser le « champ libre » à l’IA dans des secteurs critiques tels que le médical, nucléaire, … Ce sont des domaines où les réponses approximatives ne sont pas des options et où l’avis d’humains experts en aval est de toute manière nécessaire. L’IA peut servir l’intérêt général, à condition que ses objectifs restent négociés en public et que sa mise en œuvre soit vérifiable.

Quand on discute avec ChatGPT, il semble avoir une forme de « conscience » de lui-même. Comment la mesure-t-on ? Certains modèles en ont-ils davantage, et cela les rend-il plus « éthiques » ? Qu’est-ce que l’alignement en IA ? Quelles valeurs y sont intégrées, comment sont-elles implémentées ?

Il est important de distinguer 2 grandes catégories d’IA: 1) l’IA « traditionnelle », qui est déterministe, spécifique et bien cadrée ; 2) l’IA « générative», qui est ouverte et probabiliste, qui a été rendue populaire auprès du grand public depuis ChatGPT, et dont la démocratisation et médiatisation ont complètement obscurci la première catégorie, pourtant majoritaire. L’IA traditionnelle n’est simplement qu’un modèle statistique plus sophistiqué, elle remplace les modèles rationnels par des modèles empiriques (cfr Q1), qui s’avèrent être plus performants. On retrouve par exemple dans cette catégorie, des systèmes de détection de fraude bancaire, les assistants de diagnostic médicaux, les systèmes de recommandations Netflix, etc.

Ces modèles peuvent être facilement évalués et interprétés car ils n’ont généralement qu’un nombre limité de bonnes réponses possibles. Le bénéfice des IA qui tombent dans cette catégorie dépend directement de son cas d’application. C’est une IA utilisée comme un « outil », qui amplifie forcément les applications positives comme les négatives. L’IA générative a par contre une tâche moins cadrée et beaucoup plus ouverte. Ces IA ont pour but de fournir des prédictions qui sont le plus plausible possible (là ou les IA traditionnelles ont pour but de donner la bonne réponse), ce qui rend leur tâche plus ambiguë. Discuter avec ce type de modèle donne parfois l’impression qu’il a conscience de lui-même. Cette pseudo-conscience naît d’une simple compétence statistique : le modèle a vu des milliards de phrases où l’orateur se réfère à lui-même, et il en reproduit la forme au bon moment, mais cela reste une métacognition de façade.

Cette ambiguïté est la raison pour laquelle la notion d’alignement est importante dans l’IA. Cela consiste à favoriser des réponses compatibles à certaines valeurs ( pas de violence ou d’incitation à la haine, …). Cela est généralement effectué en appliquant des pénalités à certains contenus indésirables et en renforçant les réponses jugées (par un humain) plus appropriées. Selon l’IA et l’objectif qu’elle vise à remplir, ces « valeurs » d’alignement sont forcément différentes. Ces valeurs sont ainsi intrinsèques aux modèles et ne peuvent globalement pas être modifiées par un utilisateur classique, ni par un autre modèle.

Les algorithmes de recommandation de Facebook, YouTube ou Netflix peuvent-ils être considérés comme « alignés » ? Quelles valeurs guident leurs choix, devraient-elles être rendues publiques, et faut-il les ajuster en fonction des évolutions de la société (politique, économique,…)?

Nous n’avons pas accès à ces règles d’alignement imposées par les constructeurs des différentes IA. Les algorithmes de recommandations de Facebook, YouTube, Netflix sont alignés, mais certainement dans le but de maximiser l’engagement de l’utilisateur. Un alignement nécessaire maximisant la qualité de l’information, la diversité de points de vues serait possible mais potentiellement en contradiction avec l’objectif premier de ces entreprises.

Il serait nécessaire de rendre ces objectifs publics (comme le prévoit l’AI Act), mais aligner les principaux systèmes d’information sur les évolutions de la société me paraît complexe, voire potentiellement risqué. Il est à mon sens important de cultiver et confronter différents points de vues et opinions, pour autant que ceux-ci n’enfreignent pas nos principes fondamentaux et constitutionnels. Des chambres d’échos provoqués par des systèmes de recommandations mal calibrés sont justement à l’origine de plusieurs drames (cfr désinformation contre les Rohingya sur Facebook, algorithmes d’investigation policieres racistes à NY, …)

L’homme regarde le robot qui lui fait face et lui ressemble. Ce dernier a à les fois les attributs d’un ange et ceux d’un démon.

ON-OFF

Un interrupteur ON/OFF existe-t-il pour ces technologies ? Après une catastrophe, pourrait-on réellement « débrancher » l’IA en coupant ses data centers, ou serait-elle déjà trop copiée et résiliente ? Et pourrait-elle fonctionner via un réseau peer-to-peer ?

La technologie de l’IA est facilement réplicable, pas les ressources dont elle a besoin pour fonctionner. Il serait donc « facile » de couper l’accès aux ressources et infrastructures dont elle dépend pour faire tourner certains services et la plupart des applications grands publics qui en dépendraient cesseraient de répondre (ChatGPT, …). L’IA est par contre résiliente dans le sens où, si le modèle a été diffusé (e.g. open-source), il s’agit d’un simple fichier qui pourrait être utilisé par quelqu’un d’autre possédant les ressources nécessaires (souvent prohibitives pour les modèles génératifs actuels). Dû à ce besoin immense de calcul, il me parait compliqué de créer une alternative Peer-to-peer pour faire fonctionner les réseaux IA actuels.

Bernard Fostier

Responsable régional GSARA Charleroi