X Close

Les nouvelles directives d’Ofcom étoufferont la liberté d’expression en ligne

BATH, ROYAUME-UNI - 26 JANVIER : Un garçon de 12 ans regarde l'écran d'un iPhone le 26 janvier 2024 à Bath, en Angleterre. Le temps que les enfants passent devant les écrans chaque jour a explosé pendant la pandémie de Covid de plus de 50 %, ce qui équivaut à une heure et vingt minutes supplémentaires. Les chercheurs affirment qu'un temps d'écran non modéré peut avoir des effets durables sur la santé mentale et physique d'un enfant. Récemment, TikTok a annoncé que chaque compte appartenant à un utilisateur de moins de 18 ans a une limite quotidienne de temps d'écran de 60 minutes automatiquement définie. (Photo par Matt Cardy/Getty Images)

décembre 17, 2024 - 7:00am

La Loi sur la sécurité en ligne nous a introduits au terme glissant « légal mais nuisible » — ou, plus familièrement, « légal mais horrible ». L’ancienne secrétaire à la technologie, Michelle Donelan, a déclaré que le monde en ligne était un « far west de contenu » trop dangereux pour des adultes non supervisés, sans parler des enfants. Le rôle de shérif est tombé sur Ofcom, qui a été habilité à recruter comme adjoints les mêmes entreprises technologiques qui sont accusées de créer ce nouveau monde risqué.

Maintenant, Ofcom a publié des codes de pratique et des directives de première édition, conçus pour transformer les principes bien intentionnés mais tentaculaires de la Loi en une réglementation applicable et exécutoire. Le régulateur affirme qu’il « place la gestion du risque de préjudice au cœur des décisions » et exige des mesures proportionnées de la part des fournisseurs de services.

De certaines manières, cette approche de gestion des risques est sensée. Il n’a jamais été possible de rendre le monde en ligne, pas plus que le monde réel, parfaitement sûr. Les services destinés aux enfants devraient être réglementés différemment de ce que les adultes consentants font dans la vie privée numérique. Les mesures qui sont proportionnées pour lutter contre les abus sexuels sur les enfants ou le terrorisme peuvent ne pas être justifiées contre la fraude ou le « contenu qui incite à la haine ».

Cependant, comme toute réglementation axée sur la sécurité, les directives d’Ofcom font face à des conflits inévitables avec d’autres valeurs sociales importantes, en particulier la vie privée et la liberté d’expression. Par exemple, sa description du contenu qui incite à la haine « pourrait inclure du contenu qui ne répond pas au seuil de la haine illégale ». Selon cette définition, et compte tenu de la nature d’Internet, il n’est guère surprenant qu’ « un utilisateur en ligne sur quatre (adultes et enfants âgés de 13 à 17 ans) ait vu ou expérimenté du contenu qu’il considérait comme incitant à la haine, offensant ou discriminatoire, et qui ciblait un groupe ou une personne en fonction de caractéristiques spécifiques telles que la race, la religion, le handicap, la sexualité ou l’identité de genre », au cours des quatre semaines précédentes.

En ces temps fébriles, il est très facile de pointer du doigt les discussions en ligne sur des questions controversées qui pourraient répondre à cette description. Surtout depuis qu’Ofcom note que ce contenu a tendance à augmenter après des événements d’actualité tels que des attaques terroristes. Les émotions sont vives, mais il y a aussi un véritable désir de débattre des raisons pour lesquelles ces choses se produisent et comment elles pourraient être évitées à l’avenir.

Le problème avec un cadre réglementaire basé sur le risque, soutenu par la menace de lourdes amendes pour les entreprises qui montrent un zèle insuffisant pour nettoyer la haine en ligne, est que les incitations ne vont que dans une seule direction. La liberté d’expression publique est évoquée, mais il semble peu probable qu’un géant de la Silicon Valley fasse face à des amendes d’Ofcom pour avoir supprimé ou atténué sélectivement ce qui pourrait — aux yeux de quelqu’un — être du contenu qui incite à la haine. Il est bien plus probable que le fait de pencher du côté de la prudence assainisse les places publiques numériques de toute interaction humaine qui pourrait franchir une frontière mal définie dans la zone grise du préjudice en ligne.

Parallèlement aux directives préliminaires, Ofcom promet de nouvelles consultations suivies de nouvelles réglementations. Cela inclura « des protocoles de réponse à la crise pour des événements d’urgence (comme les émeutes de l’été dernier) ». Il semble peu probable que de tels protocoles soient conçus pour protéger la liberté d’expression en ligne, étant donné l’accent mis par Ofcom sur la protection des adultes, ainsi que des enfants, contre des contenus qui, en soi, ne violent aucune loi.

Concernant les « facteurs de risque » pour le contenu incitant à la haine que les fournisseurs de services technologiques sont censés prendre en compte, Ofcom énumère la capacité des utilisateurs à publier du contenu, à répondre au contenu des autres et à construire des communautés en ligne. Nous pourrions considérer ces éléments comme l’essence même des réseaux sociaux, des applications de messagerie et d’Internet. Mais pour Ofcom, ils constituent un terreau fertile pour des crimes de haine potentiels.

La Loi sur la sécurité en ligne aspirait à rendre Internet plus sûr. Nous pourrions demander : plus sûr pour qui, et contre qui ? Mais ce qui a commencé comme une tentative de le rendre plus sûr pour les enfants est devenu un système de contrôle de plus en plus large. Cela rendra le monde plus sûr pour ceux qui sont au pouvoir : contre les débats publics controversés, la critique qui grossit et la capacité des utilisateurs ordinaires d’Internet à établir des connexions et à s’organiser.

Elle protégera ceux qui craignent les mots offensants et les idées dérangeantes plus que l’utilisation du pouvoir légal pour les faire taire, ce qui est une invitation aux puissants à faire taire les sans-pouvoir. Ce sont les grandes entreprises technologiques qui joueront la sécurité pour éviter des amendes punitives, et la première victime sera la liberté d’expression.


Timandra Harkness presents the BBC Radio 4 series, FutureProofing and How To Disagree. Her book, Technology is Not the Problem, is published by Harper Collins.

TimandraHarknes

Participez à la discussion


Rejoignez des lecteurs partageant les mêmes idées qui soutiennent notre journalisme en devenant un abonné payant


To join the discussion in the comments, become a paid subscriber.

Join like minded readers that support our journalism, read unlimited articles and enjoy other subscriber-only benefits.

Subscribe
S’abonner
Notification pour
guest

0 Comments
Commentaires en ligne
Afficher tous les commentaires