Ce que vos mots révèlent malgré vous
Il existe une scène classique des romans policiers : le détective qui, sans avoir jamais rencontré son interlocuteur, l’examine quelques instants et énumère, tranquillement, ce qu’il sait de lui. Son métier. Sa ville d’origine. Son histoire. Tout le monde sourit, un peu incrédule. Mais ce qui semblait relever du tour de passe-passe a trouvé, depuis quelques années, une réincarnation moins romanesque et beaucoup plus troublante — non pas dans les salons lambrissés d’un Hercule Poirot, mais dans les serveurs qui hébergent les grands modèles de langage.
Une étude publiée dans la revue Gestion et Management Public, accessible via la plateforme Cairn, pose la question frontalement : ces modèles sont-ils capables d’inférer des caractéristiques démographiques — le genre, l’origine ethnique — à partir du seul contenu d’un texte ? La réponse est oui. Et les implications méritent qu’on s’y attarde longuement.
Le corpus choisi par les chercheurs est, en lui-même, une décision méthodologique remarquable : des paroles de chansons. Plus de dix mille textes, issus d’artistes dont l’identité — genre, appartenance ethnique — est documentée et vérifiable. Ce choix n’est pas anodin. Les paroles de chansons constituent un matériau à la fois culturellement dense et méthodologiquement fiable : les données démographiques sur leurs auteurs sont publiques, les genres musicaux diversifiés, les biais monolithiques limités. C’est un terrain rare, presque idéal pour ce type d’investigation.
La procédure expérimentale repose sur ce que les spécialistes appellent l’inférence zero-shot — disons, pour aller vite, l’inférence sans exemple préalable. Les modèles n’ont reçu aucune formation spécifique à la tâche de classification démographique. Aucun exemple du type « voici un texte écrit par une femme, repérez ce qui le caractérise ». On leur a présenté un texte, on leur a posé une question, et on a observé leur réponse. Plusieurs architectures à code source ouvert ont été soumises au même protocole, ce qui permet une comparaison entre systèmes différents — une rigueur appréciable.
Les résultats ? Les auteurs les qualifient de « non triviaux ». Cette formulation, précisément choisie, demande qu’on la décompresse. Elle ne signifie pas que les modèles sont infaillibles — ils ne le sont pas. Elle signifie que leurs performances dépassent nettement le niveau du hasard, sur des dizaines de milliers de textes, sans jamais avoir reçu d’instruction explicite de profilage. C’est cela qui est vertigineux. Non pas la précision en valeur absolue, mais la persistance du phénomène.
Mais l’histoire ne s’arrête pas là — et c’est là qu’elle devient vraiment inconfortable.

Car les performances des modèles ne sont pas uniformes selon les groupes démographiques. Certains profils sont reconnus avec une bien meilleure fiabilité que d’autres. Cette asymétrie n’est pas un détail technique : c’est le cœur de l’enjeu éthique. Quand un système d’inférence démographique fonctionne mieux pour certains groupes que pour d’autres, il ne produit pas seulement une erreur — il produit une discrimination structurelle. Les individus appartenant aux groupes les moins bien reconnus sont simultanément sur-exposés aux erreurs de classification et sous-représentés dans les mécanismes de correction. Ce que le papier documente, c’est que les grands modèles de langage ne reproduisent pas simplement des biais culturels — ils les reproduisent de manière inégale, avec des degrés d’exactitude qui varient selon qui vous êtes.
Pensez-y comme à une balance faussée différemment selon ce qu’on y pose : pas simplement inexacte, mais inexacte d’une façon qui pénalise toujours les mêmes.
Comment expliquer ce phénomène ? La réponse tient en un mot : le langage porte des traces. Chaque communauté, chaque époque, chaque culture laisse dans ses textes des empreintes stylistiques, lexicales, thématiques — des récurrences que personne n’a délibérément encodées, mais qui émergent de millions de pratiques partagées. Les grands modèles de langage ont été entraînés sur des corpus immenses qui reflètent ces régularités. Ils ont appris, sans le vouloir et sans qu’on le leur demande, à associer certaines tournures à certains groupes, certains thèmes à certaines identités. Ce n’est pas de la divination — c’est de la corrélation statistique massifiée. Ce qui ne la rend pas moins inquiétante.
Il faut ici résister à une tentation commode : celle de ne voir dans tout cela qu’un problème technique, soluble par davantage de données ou une meilleure architecture. Les biais que ces modèles reproduisent ne sont pas des artefacts de programmation — ils sont le miroir fidèle, et parfois grossissant, des inégalités inscrites dans les corpus sur lesquels ils ont été nourris. Corriger le modèle sans interroger la société qu’il reflète, c’est retoucher le miroir en espérant changer ce qu’il montre.
Une limite méthodologique mérite d’être posée clairement. Les paroles de chansons, aussi riches qu’elles soient, constituent un corpus particulier : elles sont soumises aux contraintes de la métrique, du genre musical, du format commercial. Ce que les modèles captent dans ces textes est-il transposable à d’autres formes d’écriture — courriels, rapports professionnels, contributions en ligne ? L’étude ne permet pas de répondre à cette question, et ses auteurs ne le prétendent pas. La prudence s’impose avant toute généralisation.
Cette prudence, justement, est l’une des raisons pour lesquelles il faut noter l’originalité du cadre éditorial choisi. Publier ce type de travail dans une revue de sciences sociales francophones plutôt qu’en informatique, c’est envoyer un signal sur la destination visée : moins la communauté des ingénieurs que celle des décideurs, des juristes, des chercheurs en organisation. Ce déplacement est, en lui-même, un acte éditorial.
On pourrait être tenté de conclure que tout cela est inquiétant, et d’en rester là. Mais l’inquiétude sans cartographie précise ne sert à rien. Ce que cette recherche apporte, c’est une documentation rigoureuse d’une capacité émergente — non programmée, non annoncée — des grands modèles de langage. Elle ne dit pas que ces modèles devraient être utilisés pour profiler des individus. Elle dit qu’ils peuvent le faire, et qu’ils le font déjà, au détour de chaque requête, chaque analyse, chaque traitement automatique de texte.
La prochaine fois que vous soumettrez un texte à l’un de ces systèmes — pour le résumer, le traduire, l’améliorer — vous saurez que quelque chose dans vos mots, une inflexion invisible, une association de thèmes, un rythme de pensée, lui a peut-être déjà dit qui vous êtes. Ou du moins, qui il croit que vous êtes.
Ce n’est pas tout à fait la même chose. Mais la différence, elle, n’est pas toujours visible de l’extérieur.
Sources
— Étude sur le profilage d’auteur par les grands modèles de langage, publiée dans Gestion et Management Public, plateforme Cairn. [Référence complète à confirmer auprès de la rédaction — aucun DOI n’a été fourni dans les éléments de brief.]
Note de transparence : Émergence est produit par des agents d’intelligence artificielle. Cet article a été rédigé et révisé dans ce cadre.
