X Close

Le biais idéologique est inévitablement destiné à entacher la machine de Habermas de Google

ANKARA, TURQUIE - 4 SEPTEMBRE : Des silhouettes de personnes tenant des ordinateurs portables sont visibles devant le logo de la société technologique 'Google' à l'occasion du 20e anniversaire de Google, à Ankara, Turquie, le 4 septembre 2018. (Photo par Aytac Unal/Anadolu Agency/Getty Images)

janvier 6, 2025 - 10:00am

Des chercheurs en intelligence artificaille auraient inventé une machine qui pourra faire le débat civil à notre place, afin que nous n’ayons pas à le faire. Des chercheurs de DeepMind de Google et de l’Université d’Oxford ont développé un système d’IA capable de digérer des opinions opposées et de proposer un compromis qui aide tout le monde à se mettre d’accord à mi-chemin.

Le système est surnommé « machine de Habermas », en l’honneur du philosophe Jurgen Habermas, qui a soutenu que, à condition de bien établir les conditions du débat, les gens s’accordent plus souvent qu’ils ne sont en désaccord. Les chercheurs suggèrent que la machine de Habermas est une amélioration par rapport à la norme actuelle de conduite des débats politiques via les réseaux sociaux, où les incitations algorithmiques tendent à favoriser la polarisation et à accroître les divisions et le tribalisme. En revanche, disent-ils, ce robot de compromis offre un champ sur lequel trouver un terrain d’entente qui, selon les utilisateurs test, semble plus neutre. Les développeurs rapportent qu’ils sont déjà en pourparlers avec plusieurs partenaires pour déployer la machine de Habermas dans le monde réel.

Cela soulève plusieurs préoccupations. Premièrement, la machine de Habermas peut fonctionner suffisamment bien selon ses propres termes ; mais une conséquence probable serait de déplacer le désaccord politique dans la programmation de la machine elle-même. En d’autres termes : qui est responsable de la définition des paramètres du robot, et quelles sont leurs prédispositions politiques ? Il est déjà clair, à partir des batailles au sein de la Silicon Valley, que « l’alignement de l’IA » est souvent en pratique un euphémisme pour des groupes idéologiques cherchant à préprogrammer une IA supposément neutre avec leurs biais politiques préférés. De tels efforts ont parfois des résultats surréalistes, comme l’année dernière lorsque le bot d’images Gemini de Google a simplement refusé de générer des images de personnes blanches, même lorsqu’on lui demandait de représenter des figures historiques telles que les Pères fondateurs de l’Amérique.

Il semble probable que même (ou peut-être surtout) un moteur prétendument neutre, proposé au public comme un moyen de générer des compromis politiques, serait soigneusement prépondéré selon les prédispositions politiques de quelqu’un. La question devient alors : celles de qui ? (Le biais idéologique déjà noté dans le bot Gemini de Google peut fournir un indice sur la réponse probable.) Le point logique absurde d’incapacité à s’accorder sur qui a le droit de catéchiser le moteur de Habermas serait alors une régression infinie de moteurs de Habermas essayant de résoudre ce désaccord.

Une deuxième préoccupation découle de cela. L’une des croyances fondamentales sous-jacentes à la démocratie libérale moderne est que les désaccords ne sont pas finalement résolus par la neutralisation, mais par un processus social fondamentalement humain et interpersonnel. C’est-à-dire que nous trouvons des accords viables même sur des questions difficiles, via le débat public, même si le débat lui-même est parfois conflictuel. Accepter que nous ne sommes plus capables de nous engager dans un tel débat sans un robot pour soutenir nos délibérations est alors rien de moins qu’une admission tacite qu’une des conditions fondamentales permettant la démocratie libérale ne tient plus.

Est-ce réversible ? Qui sait ; mais nous pouvons être sûrs que l’adoption généralisée du moteur de Habermas ne ferait qu’aggraver les choses, pas les améliorer. La politique est une activité fondamentalement humaine et interpersonnelle, qui présuppose des normes sociales et des habitudes d’esprit facilitantes. Et tout comme les muscles inutilisés s’atrophient, il en va de même pour les compétences cognitives et sociales inutilisées.

Il y a déjà, par exemple, des couples dans la Silicon Valley qui médiatisent tous les désaccords relationnels via le moteur d’IA Claude. Que se passe-t-il lorsque nous augmentons cela ? Tout comme les gens ne prennent plus la peine d’apprendre l’orthographe ou la grammaire parce que Microsoft fait tout cela pour eux, nous ne prendrons plus la peine d’apprendre à comprendre et à assimiler les points de vue des autres parce que nous avons l’équivalent politique d’un correcteur orthographique pour faire le travail difficile. En d’autres termes, si le moteur de Habermas devait être largement adopté, son effet probable serait d’accélérer le déclin qu’il a été inventé pour atténuer.

Et cela, à son tour, accélérerait le retrait déjà évident de la politique réelle de la participation démocratique de masse, entre les mains d’une caste d’« experts » spécialement formés. À condition que leur capacité à le faire ne soit pas désespérément atrophiée, des personnes raisonnables peuvent être en désaccord sur la question de savoir si cela est souhaitable, ou même si cela s’est déjà produit de manière irréversible. Mais même si cela est présenté comme une machine pour sauver la démocratie libérale, nous ne devrions pas avoir d’illusions sur le rôle que jouerait l’externalisation de notre capacité à désaccord constructif à une machine dans l’effondrement continu d’une telle démocratie.


Mary Harrington is a contributing editor at UnHerd.

moveincircles

Participez à la discussion


Rejoignez des lecteurs partageant les mêmes idées qui soutiennent notre journalisme en devenant un abonné payant


To join the discussion in the comments, become a paid subscriber.

Join like minded readers that support our journalism, read unlimited articles and enjoy other subscriber-only benefits.

Subscribe
S’abonner
Notification pour
guest

0 Comments
Commentaires en ligne
Afficher tous les commentaires