Sam Altman est le prochain profiteur promettant la libération. Crédit : Getty


mars 27, 2025   7 mins

Je suis allé joyeusement à l’université en écoutant de la musique sur de vieux programmes de partage de fichiers pendant que tout le monde autour de moi était passé à iTunes. Pendant que le reste des étudiants scrollait sur le web en WiFi, je branchais d’une manière un peu ringarde un câble ethernet chaque fois que je voulais me connecter. Mais à un moment donné, vers la mi-vingtaine, après avoir été moqué pour être arrivé à un job hipster avec un ordinateur portable Lenovo, j’ai cédé et j’ai opté pour Apple.

Je me souviens encore, comme dans un cauchemar récurrent, du ton de voix du technicien qui a finalisé mon achat de mon premier iPhone. « Bienvenue chez Apple », a-t-il dit, comme s’il m’immergeait dans un bain de suffisance. Si nous jouions une scène, le sous-texte aurait été complètement clair : j’étais dedans maintenant et je n’en sortirais jamais. Les entreprises d’IA m’invitent maintenant — nous invitent — de la même manière.

Mais je ne vais pas me laisser avoir à nouveau. Nous devons décliner. Nous devons collectivement boycotter les produits d’intelligence artificielle tant qu’il en est encore temps. Parce que l’IA n’est pas bonne pour nous — pas bonne pour nos esprits, notre créativité ou notre compétence — et alors qu’elle nous est imposée, nous sommes les seuls à avoir le pouvoir de refuser.

En y repensant, je comprends pourquoi j’ai cédé à Apple toutes ces années auparavant. Cela aurait vraiment été un suicide social d’essayer de me frayer un chemin dans la classe professionnelle des années 2010 avec autre chose qu’un MacBook Pro et un iPhone. Apple était vraiment meilleur que tout le reste. Mais je regrette ce moment, tout de même. Chaque intuition que j’avais savait que choisir des entreprises comme Apple, Google et Facebook était un marché de dupes.

L’avantage était quelques années à me sentir comme si j’étais partie de l’avenir en sirotant mes lattés et en flottant à travers l’ère post-industrielle naissante avec mes gadgets Apple argentés et élégants. Mais je paie encore le prix pour cela : chaque fois que je me connecte à mon compte bancaire maintenant, c’est comme décoller des barnacles de la coque d’un navire pour me débarrasser de tous les nouveaux frais que Apple et Google ont concoctés. L’enshitification — le terme approprié inventé par Cory Doctorow qui s’avère être, comme, le mot du siècle — s’est révélée être pratiquement une loi de la nature. Exactement comme Doctorow l’a analysé, les plateformes « abusent … des clients pour récupérer toute la valeur pour elles-mêmes ».

Alors que l’IA émerge comme la technologie incontournable du nouvel avenir brillant, et que tout le monde commence à nommer ses bots ChatGPT et à avoir des conversations philosophiques avec eux, j’ai décidé — formellement, au moment d’écrire cet essai — de me désinscrire. Le train part de la gare sans moi. Je n’ai toujours pas téléchargé d’application d’IA de quelque sorte que ce soit sur mon téléphone. Et si cela était, jusqu’à présent, dû plus à la torpeur qu’à un grand principe, alors merci Dieu pour la paresse.

L’IA ne peut mener qu’à une dépendance à une technologie, ce qui signifie en réalité une dépendance aux seigneurs de la Silicon Valley cherchant à exploiter leur clientèle. C’est exactement la même dynamique que nous avons tous vécue et déplorée depuis une vingtaine d’années. Et vous pouvez probablement brancher et débrancher toutes vos statistiques préférées pour comprendre ce que cela a signifié : l’Américain moyen dépense près de cinq heures par jour sur son smartphone, tandis que les taux d’amitié ont chuté et que la dépression, l’anxiété, l’automutilation et les pensées suicidaires chez les adolescents ont explosé.

Si vous préférez, vous pouvez vous concentrer sur l’attention et la découverte que la simple présence d’un smartphone dans un cadre de test altère les résultats. Comme l’a dit Tristan Harris, apostat de la Silicon Valley et directeur du Center for Human Technology, « La course de la technologie vers le bas du tronc cérébral pour extraire des informations est une menace existentielle — utiliser notre [attention] pour améliorer les machines, c’est ‘déclasser’ les humains ».

Cependant, il semble que l’IA soit là pour rester. Les grandes entreprises technologiques sont toutes engagées, et les gouvernements ne sont pas près de se mettre d’accord sur une réglementation significative, avec le président Trump, par exemple, révoquant l’ordre exécutif modeste de Joe Biden érigé pour établir des garde-fous. Mais il y a encore un choix personnel dans cette affaire, et c’est le moment pour ceux qui se soucient de la créativité humaine et de l’autonomie de tracer une ligne dans le sable. Non, je ne parle pas d’abandonner complètement la technologie. Mais nous pouvons, par exemple, cliquer en dessous des offres d’IA de Google pour regarder des liens réels. Et nous pouvons généralement continuer à vivre nos vies de notre triste vieille manière sans le bénéfice des « assistants personnels » d’IA ou des « meilleurs amis » bots ou quoi que ce soit que la nouvelle technologie est censée nous apporter.

Pour être honnête, cette position que j’adopte me fait vraiment sentir comme un conducteur de buggy amish fouettant un peu plus fort mes chevaux de carrosse pendant que les bicyclettes passent à toute vitesse à côté de moi ; comme ces étranges personnes que l’on voit parfois dans les rues de la ville, tapant laborieusement un message sur un téléphone à clapet comme s’ils étaient un musée vivant. Mais essayons de sortir un moment de l’engouement et réfléchissons à ce qu’est réellement l’IA.

« Maintenant est le moment pour ceux qui se soucient de la créativité humaine et de l’autonomie de tracer une ligne dans le sable. »

L’IA est essentiellement une prédiction de texte combinée à l’exploration de données. C’est tout. C’est un super-Google qui pénètre dans le corps des textes et réorganise les mots en un fac-similé très agréable d’un argument cohérent. Il n’y a pas d’« intelligence » derrière cela, dans le sens où un ordinateur pense réellement. Je ne suis pas le premier à me rappeler l’histoire de Clever Hans, le cheval qui pouvait compter et qui a beaucoup tourné au début du 20ème siècle.

Ce que Hans faisait était vraiment très cool : on lui posait une question mathématique, et il tapait la réponse avec ses sabots. Et Hans avait souvent raison. Mais ce n’était pas, comme il s’est avéré, parce qu’Hans avait maîtrisé un système numérique, mais parce qu’il était sensible à la foule et pouvait sentir l’excitation monter à mesure qu’il approchait du bon nombre.

L’IA est plus ou moins la même chose — elle utilise notre émerveillement pour nous convaincre d’un simulacre d’intelligence alors que ce que nous sommes vraiment en train de témoigner est, en un sens, notre propre excitation enfantine face à un tour d’anthropomorphisation : nous sommes ravis de voir une calculatrice imiter quelque chose de nos processus mentaux. Notre tendance, malheureusement, est de donner à l’IA une sorte de déférence épistémologique, de croire que ce mélange de données représente une sorte d’autorité.

En attendant, dans le rôle de l’entraîneur de Hans se trouvent les programmeurs qui influencent l’IA pour nous donner ce qu’ils veulent que nous entendions. Le déploiement désastreux de Google Gemini en 2024 a vraiment tiré le rideau et nous a montré le petit homme étrange jouant avec les boutons. La culture d’entreprise de Google à l’époque était très woke et, ô surprise, l’« intelligence » artificielle a commencé à générer des images de nazis noirs.

Mais même si Gemini a trop montré son jeu, les mêmes dynamiques sont évidemment à l’œuvre dans tous les autres modèles d’IA. Les personnes qui poussent l’IA maintenant sont les mêmes qui ont passé les années 2010 à promouvoir le web 2.0 comme une nouvelle vision de la liberté et de la connectivité mondiale, tout en détruisant les médias traditionnels et en volant autant de données privées qu’ils le pouvaient pour les vendre joyeusement aux annonceurs. En 2020, le discours sur la liberté avait disparu et « lutter contre la désinformation » (lire : censurer les pensées erronées) était à la mode.

Cette histoire récente soulève une question importante : pourquoi diable devrions-nous faire confiance à ces gens encore une fois ?

Pour être sûr, nous sommes déjà assez en retard dans le jeu. Même si nous n’utilisons pas des produits comme Grok et ChatGPT, il y a de fortes chances que nous utilisions des formes plus rudimentaires des mêmes technologies. Nous utilisons une version de l’IA pour nous déplacer et pour traduire nos idées dans d’autres langues. Ce sont des réalisations remarquables. Mais elles nous infantilisent. Je suis assez sûr que, si mon téléphone m’était retiré, je ne pourrais pas trouver mon propre chemin de chez moi à mon lieu de travail. Et elles entravent notre auto-motivation : je suis également assez sûr que j’ai été beaucoup plus lent à apprendre des langues étrangères parce que je sais, à un certain niveau, que Google Translate rend cela inutile.

Voulons-nous vraiment accélérer encore davantage le déclin de la compétence générale ? Et en échange de quoi ? Beaucoup de gens restent perplexes quant au service réel que l’IA est censée fournir. L’argument de vente actuel est que l’IA vous offre un « assistant personnel », mais pour être honnête, je n’étais pas conscient jusqu’à ce que le PDG de Google, Sundar Pichai, annonce « un Google personnel, juste pour vous » que j’avais besoin d’un assistant personnel. Je me sens parfaitement capable d’acheter mes propres billets d’avion et de réserver mes propres tables de restaurant.

Ce dont j’étais conscient était le besoin de sens et de concentration dans ma vie : je voulais, par exemple, traduire les idées de romans qui étaient en moi en romans réels. Je voulais être la meilleure version de moi-même, la plus autonome, que je pouvais gérer. Quant à une machine écrivant un roman pour moi en quelques millisecondes — je n’ai aucune idée de la façon dont cela pourrait générer une fierté authentique ou produire autre chose qu’un vide intérieur cavernicole ?

Mon espoir pendant les trois dernières années avait été que l’IA disparaisse tout simplement. Dans les années 90, nous nous attendions à être envahis par des armées de clones (certainement, mon professeur de sciences de sixième a donné de nombreux discours dans ce sens). Cela ne s’est pas produit. Quelque chose de similaire pourrait-il se produire avec l’IA ?

Cela semble de plus en plus improbable. D’une part, l’IA a déjà changé le visage de la guerre, et la course aux armements en IA entre les États-Unis et la Chine garantit que l’IA sera une présence majeure dans nos vies. Il y a eu un bref moment en 2023-2024 où il était possible d’imaginer que nos angoisses liées à l’IA allaient suivre le chemin des peurs de clones des années 90. C’était lorsque l’Italie a interdit ChatGPT et que l’administration Biden a émis ses réglementations (depuis annulées). Mais maintenant, nous avançons à plein régime.

Tout ce qui compte maintenant, ce sont les choix individuels. Naïf, je suis tombé dans le techno-optimisme des deux dernières décennies et j’ai fini avec une attention diminuée et une série de frais d’abonnement mystérieux à montrer pour cela. Eh bien. Trompez-moi une fois, honte à moi. Trompez-moi deux fois, honte à Sam Altman. Je sais, beaucoup mieux maintenant, la folie de confier mes propres capacités mentales à une bande de techniciens promettant un avenir brillant.

Je ne ferai pas cette erreur à nouveau. Ni vous ne devriez.


Sam Kahn writes the Substack Castalia.