scienceSociété

ChatGPT: «Quelles relations sociales résisteront à la machine?»

GRAND ENTRETIEN – Chercheuse au Collège de France et à l’Inria, Murielle Popa-Fabre est experte au Conseil de l’Europe. Elle intervient sur des questions de réglementation de l’intelligence artificielle (IA) et de protection des données.

LE FIGARO. – Avec ChatGPT, l’Intelligence artificielle prend une place supplémentaire dans la vie économique et même dans la vie de l’esprit. Quelle place reste-t-il à l’homme?

Murielle POPA-FABRE. – Le succès de ChatGPT lui-même remet l’humain au centre. Son essor n’est pas uniquement dû aux progrès de l’apprentissage profond, à la taille de son corpus d’entraînement ou au nombre vertigineux de paramètres: cet outil a été forgépar apprentissage et par renforcement avec retour humain. Des mois d’annotation humaine ont été nécessaires pour permettre la cohérence des résultats. Le renforcement par l’humain intégré à l’architecture de ChatGPT prend plusieurs formes, dont des étapes d’entraînement sur une banque de données de requêtes humaines recueillies depuis 2020 et annotées, et des boucles de systèmes de récompense qui pénalisent les générations de textes jugées plus ou moins inappropriées selon les annotateurs. Il est néanmoins réducteur de prendre cela pour de l’intelligence, si ce n’est l’intelligence des humains qui ont optimisé et noté la pertinence et l’acceptabilité des questions et des réponses.

Si la contribution centrale de l’humain pour filtrer la qualité et la pertinence des textes générés n’avait pas échappé à la communauté scientifique et aux initiés, l’opinion publique a pu, elle, s’en rendre compte grâce aux révélations de Time Magazine. La mise en lumière des mauvaises conditions des travailleurs kenyans qui ont lu et annoté, parfois pour moins de 2 dollars par heure, des milliers d’extraits textuels à caractère violent, sexuel ou pédophile a révélé quel a été le prix à payer pour que ce type de contenus ne voit pas le jour dans les réponses de ChatGPT.

Qu’est-ce qui distingue le cerveau humain de la puissance de raisonnement d’une machine?

Lorsque nous testons ChatGPT, il est aisé d’oublier que nous sommes devant le résultat d’une énorme machinerie statistique probabiliste qui a intériorisé des milliards d’occurrences de mots à travers des térabits de textes. La totalité des articles Wikipédia anglais ne constitue que 3 % des données d’entraînement de GPT-3. La reproduction de motifs fréquents repérés dans les données d’entraînement permet par exemple de retenir que le mot «brainstorming» est souvent en amont du mot «business plan», ce qui permet à ChatGPT de réussir à simuler une tâche de planification qui demanderait une connaissance du monde fine pour être élaborée. Cela peut troubler l’utilisateur qui se trouve à prêter une forme de connaissance du monde à la machine. Or, la cognition humaine n’est pas qu’une capacité associative générant des plausibles, elle est enracinée dans le réel.

Un changement quantitatif pourra difficilement changer cela: si le passage du modèle GPT-2 à GPT-3 a consisté en une multiplication par 116 des paramètres, le bruit court que GPT-4 verrait ses paramètres multipliés par 570. A cela j’ajouterais que pour l’instant les progrès dans le domaine ont été obtenus par une augmentation quantitative des données injectés dans les entrainements. Or, à ce rythme, comme pour les ressources énergétiques non-renouvelables, la quantité de textes écrits par des humains est une ressource finie qui se renouvelle moins rapidement que la consommation qu’en fait l’IA. Certains parlent même d’un horizon de deux ou trois ans. Les courbes de performances liées à l’augmentation quantitatives des données d’entrainement semblent pointer vers des effets de plateau. Un virage en direction d’une meilleure qualité de données d’entrainement, ou vers d’autres systèmes ou architectures ayant moins besoin de données et avec une meilleure empreinte carbone est à attendre. Cela sera passionnant.

Il reste malaisé de répondre à la question de la puissance de raisonnement de la machine, alors que la recherche en IA n’a toujours pas de réponse sur l’opacité du fonctionnement de ces algorithmes pendant l’entrainement. Comme de nombreux centres de recherche publiques ou privés, une entreprise comme Meta (FAIR) embauche à Paris et à New York d’excellents chercheurs qui travaillent à temps plein sur la compréhension et l’explicabilité théorique de ces boites noires statistiques si bavardes: que se passe-t-il entre une strate et l’autre du réseau de neurones de la machine? Quelles tâches accomplissent les premières strates par rapport à celles du milieu? Voici autant de questions que la recherche actuelle tente de résoudre. Le professeur Dehaene propose par exemple actuellement au Collègue de France un parcours qui explore les parallèles entre fonctionnement du cerveau humain et IA.

Ambivalents dans leurs effets, ces progrès semblent inéluctables. Comment faut-il éthiquement les encadrer?

Le tout premier cadre éthique se joue à l’échelle de la personne et des choix plus ou moins éclairés qu’elle peut faire, d’adopter ou non les technologies émergentes. Ce niveau individuel concerne aussi l’éthique professionnelle de l’ingénieur ou du chercheur en IA au quotidien. Le deuxième échelon est celui des choix de société, mais il concerne aussi les entreprises.

Le troisième échelon est celui de la gouvernance de l’IA, il dépend de la dynamique des deux premiers et de la rapidité des organismes de gouvernance, de standardisation et de politiques publiques nationaux et internationaux dans la formulation de réponses adéquates pour éviter de freiner l’innovation tout en protégeant les citoyens. Notre ministre délégué chargé de la Transition numérique, Jean-Noël Barrot, vient d’intervenir à Davos en faveur d’une IA éthique. Je pense qu’une IA éthique, française ou européenne, serait aujourd’hui un avantage concurrentiel sur les États-Unis et la Chine. La France est la patrie des droits de l’homme et a certainement un rôle à jouer dans un marché dominé soit par une technique débridée, soit par la volonté de contrôle.

Faut-il s’attendre à un grand remplacement des cols blancs par des robots?

La sophistication parfois étonnante des textes générés par un outil comme ChatGPT a fait trembler plusieurs professions intellectuelles supérieures. Mais le caractère vraisemblable des contenus demande bel et bien à un col blanc un recul critique et un niveau de vigilance accrus pour pouvoir se servir de cet outil dans sa forme actuelle. Le tandem avec l’IA sera probablement nécessaire pour garder sa place.

Nos professions vont-elles se cantonner à des postes de surveillant d’IA plus ou moins complexes ?
Murielle Popa-Fabre
Aujourd’hui une IA basée sur GPT-3 va assister un prévenu américain pour excès de vitesse en lui suggérant des arguments de défense. Est-ce que cela signifie que les avocats seront replacés dans la foulée? Le débat public doit s’emparer de ces thèmes. De même, les progrès de l’IA en imagerie médicale pour le diagnostic sont rapides et spectaculaires, mais il restera la tâche d’annoncer ou non un cancer au patient, de prendre la responsabilité du diagnostic et de la thérapie. Ces professions sont confrontées au choix de la place à accorder à l’outil qui leur permet d’accomplir une partie de leurs tâches. Combien d’interactions humaines souhaitent-elles vraiment retirer à leurs activités? Et quelles conséquences cela pourra avoir dans la relation thérapeutique, ou encore dans le vécu qu’une victime ou un coupable auront de la justice? Cette réflexion prospective doit prendre de plus en plus de place à l’échelle personnelle, de la société et des institutions.

La Commission Européenne et le Parlement avec l’AI ACT ainsi que plusieurs organismes internationaux comme l’OCDE ou le Conseil de l’Europe se mobilisent pour que l’humain soit toujours dans la boucle, que ce soit dans les prises de décision ou par la supervision des processus rendus automatiques – ce que les anglosaxons appellent keep a human in the loop. Nos professions vont-elles alors se cantonner à des postes de surveillant d’IA plus moins complexes? Sociologues, à l’instar de Ian Ferguson, et philosophes ont entamé des réflexions sur l’impact psychologique et social du sentiment de désœuvrement et dépossession de l’employé qui, en simple superviseur humain, n’est plus au cœur du processus.

Le temps, le doute, la rumination, la conversation sont des éléments constitutifs de l’intelligence. Sont-ils selon vous menacés?

Prenons un exemple personnel. Nous sortons de la période des vœux, et par convention sociale ou plaisir personnel, nous avons tous passé du temps à en faire et en écrire. Un proche cadre en quête d’efficacité m’avouait il y a quelques semaines avoir eu recours à ChatGPT pour écrire des vœux en bon anglais à la secrétaire qui organise son agenda. Une tâche langagière très stéréotypée que ChatGPT a bien évidemment exécutée en lui permettant de gagner du temps, s’évitant ainsi ruminations, doutes et latences liées à ne pas vraiment savoir qu’écrire et comment le formuler.

Or, quel est l’impact de déléguer cette tâche parfois répétitive à ChatGPT? Cela ne nous prive-t-il pas de ces temps typiquement humains d’hésitation qui déclenchent tant de processus cognitifs de mémoire, d’analyse d’émotions, d’interprétation d’actions et de réorganisation de la complexité des informations observées qui sont réactivées? Nous avons pu observer combien pendant le covid le manque d’interaction langagière et l’entrainement cognitif qu’elle implique ont eu un impact sur le bien-être mental à travers les générations, et sur le vieillissement cognitif des populations plus âgées.

À cela s’ajoute un résultat éclairant récemment publié par la plus longue étude longitudinale des facteurs principaux du bien-être et du bonheur. Commencée en 1938, cette étude de Harvard conclut que les relations personnelles sont l’élément fondamental de la santé et du bien-être des participants. On peut ainsi se poser la question de quelles relations sociales résisteront face à l’efficacité langagière de la machine?

Comment assurer ce besoin de relation aux autres face à l’automatisation des tâches langagières qui avant étaient l’apanage d’humains? Comment maintenir le lien aux autres alors que la parole ne nous y contraint plus? Voici un choix de société et un enjeu de gouvernance qui nous occupera dans les quinze prochaines années.