La Loi sur la sécurité en ligne nous a introduits au terme glissant « légal mais nuisible » — ou, plus familièrement, « légal mais horrible ». L’ancienne secrétaire à la technologie, Michelle Donelan, a déclaré que le monde en ligne était un « far west de contenu » trop dangereux pour des adultes non supervisés, sans parler des enfants. Le rôle de shérif est tombé sur Ofcom, qui a été habilité à recruter comme adjoints les mêmes entreprises technologiques qui sont accusées de créer ce nouveau monde risqué.
Maintenant, Ofcom a publié des codes de pratique et des directives de première édition, conçus pour transformer les principes bien intentionnés mais tentaculaires de la Loi en une réglementation applicable et exécutoire. Le régulateur affirme qu’il « place la gestion du risque de préjudice au cœur des décisions » et exige des mesures proportionnées de la part des fournisseurs de services.
De certaines manières, cette approche de gestion des risques est sensée. Il n’a jamais été possible de rendre le monde en ligne, pas plus que le monde réel, parfaitement sûr. Les services destinés aux enfants devraient être réglementés différemment de ce que les adultes consentants font dans la vie privée numérique. Les mesures qui sont proportionnées pour lutter contre les abus sexuels sur les enfants ou le terrorisme peuvent ne pas être justifiées contre la fraude ou le « contenu qui incite à la haine ».
Cependant, comme toute réglementation axée sur la sécurité, les directives d’Ofcom font face à des conflits inévitables avec d’autres valeurs sociales importantes, en particulier la vie privée et la liberté d’expression. Par exemple, sa description du contenu qui incite à la haine « pourrait inclure du contenu qui ne répond pas au seuil de la haine illégale ». Selon cette définition, et compte tenu de la nature d’Internet, il n’est guère surprenant qu’ « un utilisateur en ligne sur quatre (adultes et enfants âgés de 13 à 17 ans) ait vu ou expérimenté du contenu qu’il considérait comme incitant à la haine, offensant ou discriminatoire, et qui ciblait un groupe ou une personne en fonction de caractéristiques spécifiques telles que la race, la religion, le handicap, la sexualité ou l’identité de genre », au cours des quatre semaines précédentes.
En ces temps fébriles, il est très facile de pointer du doigt les discussions en ligne sur des questions controversées qui pourraient répondre à cette description. Surtout depuis qu’Ofcom note que ce contenu a tendance à augmenter après des événements d’actualité tels que des attaques terroristes. Les émotions sont vives, mais il y a aussi un véritable désir de débattre des raisons pour lesquelles ces choses se produisent et comment elles pourraient être évitées à l’avenir.
Le problème avec un cadre réglementaire basé sur le risque, soutenu par la menace de lourdes amendes pour les entreprises qui montrent un zèle insuffisant pour nettoyer la haine en ligne, est que les incitations ne vont que dans une seule direction. La liberté d’expression publique est évoquée, mais il semble peu probable qu’un géant de la Silicon Valley fasse face à des amendes d’Ofcom pour avoir supprimé ou atténué sélectivement ce qui pourrait — aux yeux de quelqu’un — être du contenu qui incite à la haine. Il est bien plus probable que le fait de pencher du côté de la prudence assainisse les places publiques numériques de toute interaction humaine qui pourrait franchir une frontière mal définie dans la zone grise du préjudice en ligne.
Participez à la discussion
Rejoignez des lecteurs partageant les mêmes idées qui soutiennent notre journalisme en devenant un abonné payant
To join the discussion in the comments, become a paid subscriber.
Join like minded readers that support our journalism, read unlimited articles and enjoy other subscriber-only benefits.
Subscribe