Revue

Revue

Parole de machines

Dialoguer avec une IA

Analyse de livre

Avec cet ouvrage, Alexeï Grinbaum se livre à une véritable quête de sens sur l’intelligence artificielle générative, entendons ici, le sens que les humains peuvent donner à cette nouvelle vague technologique dont la diffusion rapide menace de submersion des pans entiers de l’économie de nos sociétés. Et ce sont précisément les secteurs que l’on croyait jusqu’ici à l’abri des délocalisations ou de la robotisation qui se trouvent les plus menacés. Cette technologie envahit en effet le monde de l’information et celui de la communication, y compris la transmission des savoirs et les hiérarchies bâties sur les mécanismes d’évaluation des capacités dans ces domaines.

Grinbaum Alexeï, Parole de machines. Dialoguer avec une IA, Paris : HumenSciences (Quoi de neuf en sciences ?), mai 2023, 192 p.

La quête d’Alexeï Grinbaum s’appuie sur une analyse des faits. Cette intelligence n’est pas humaine en dépit de son origine, parce qu’elle extériorise des mécanismes cognitifs et surtout parce que les ressorts de son fonctionnement n’ont que peu à voir avec nos cerveaux biologiques. Elle est issue des programmes spécialisés dans le traitement du langage (LMM / larges modèles linguistiques) qui reposent sur quelques mécanismes simples à décrire : la complétion, c’est-à-dire la capacité de compléter un mot ou une phrase en fonction de son contexte, et un jeu de cache-cache pour en réaliser l’apprentissage sans intervention humaine.

Ces mécanismes sont mis en œuvre par des réseaux de neurones de type transformer [1] comportant des milliards de paramètres qui décortiquent des corpus gigantesques de données textuelles en découpant les mots en unités faites de mots ou fragments de mot — les tokens — et leur appliquent le mécanisme de complétion et ses capacités d’autoapprentissage. Les résultats ou outputs sont le fruit de calculs statistiques formulés en un langage humain. De ce fait, ils sont intelligibles au lecteur humain, bien qu’ils soient asémantiques pour les machines qui les génèrent.

À dire vrai ces outputs sont ensuite l’objet de dispositifs de contrôle avec le concours de travailleurs humains, dont l’objectif est à la fois d’éviter les discours toxiques, c’est-à-dire nocifs ou blessants, et d’insérer des segments de réponse purement conversationnels, proches des réactions humaines. Le résultat est confondant : ces textes nous parlent littéralement et nous surprennent généralement par leur pertinence. De surcroît et c’est l’une des grandes surprises récentes, ces systèmes se sont améliorés de façon spectaculaire avec l’augmentation de la taille des modèles et la multiplication des paramètres. Des effets de seuil sont apparus et avec eux des capacités émergentes, dont celle de proférer des mensonges dans les stratégies de réponse.

C...