• Howard Law

Le projet de loi des libéraux sur les préjudices en ligne ne doit pas être précipité

La lanceuse d’alerte contre Facebook, Frances Haugen, ne sait probablement rien du projet de loi canadien sur les préjudices en ligne qui sera bientôt adopté. Mais ses révélations tombent juste à point.


Alors que le public américain réagit aux révélations de Frances Haugen sur l’indifférence du PDG de Facebook Mark Zuckerberg à l’égard des contenus dangereux en ligne, au Canada le gouvernement fédéral libéral a promis de déposer un projet de loi réglementant les préjudices en ligne d’ici Noël.


L’été dernier, le ministre du Patrimoine Steven Guilbeault a donné le coup d’envoi à la phase de consultation prélégislative. Le document de travail du gouvernement cible cinq types de contenus en ligne préjudiciables à surveiller et potentiellement à bannir des principales plateformes de médias sociaux Facebook, TikTok, Instagram et Twitter (les courriels et la messagerie en sont exemptés). L’exploitation sexuelle des enfants, le terrorisme, l’incitation à la haine et à la violence, et la distribution non consensuelle d’images intimes composent ces cinq préjudices. Un organisme de réglementation fédéral spécial, composé d’un commissaire à la sécurité numérique et d’un tribunal d’appel, sera chargé de cette tâche.


Au cœur de la législation, le gouvernement imposera aux grandes plateformes de médias sociaux l’obligation légale de faire preuve d’une « diligence raisonnable » dans l’élimination et l’exclusion des contenus préjudiciables. Si elles ne déploient pas d’efforts raisonnables, elles pourraient se voir imposer une amende. Les téléchargeurs dont le contenu est retiré peuvent faire appel auprès du tribunal.


Le témoignage de Frances Haugen révèle que Facebook est l’exemple type d’une plateforme de médias sociaux qui manque délibérément de vigilance en ignorant les avertissements de sa propre unité de l’intégrité civique au nom du profit.


Les révélations de Frances Haugen, en plus d’exposer la cupidité de Facebook, mettent en lumière un problème concret pour tout gouvernement : comment surveiller des plateformes en ligne qui hébergent 5 milliards de messages tous les jours, dont environ, du moins pour Facebook, 5 millions sont suffisamment troublants pour être signalés par son programme de surveillance d’intelligence artificielle et ses 15 000 modérateurs (dont 10 % sont des faux positifs selon Mark Zuckerberg)? Même lorsque ce dernier s’est enfin décidé à privilégier le bien commun à la fidélité de son public, en sévissant contre la désinformation des antivaccins, Facebook a eu du mal à dépolluer sa plateforme.


Une poignée de réactions publiques au document de travail du Ministre (dans une tournure orwellienne, le ministère garde les mémoires confidentiels) sont volontairement publiées sur le blogue du défenseur d’Internet Michael Geist. Et bien que certains mémoires soient hostiles à tout contrôle du contenu en ligne, même les critiques qui conviennent que les préjudices en ligne sont suffisamment graves pour justifier une réglementation émettent d’importantes critiques à l’égard du document de travail du Ministre. Un judicieux blogue des professeurs de droit de l’Université de Calgary, Emily Laidlaw et Darryl Carmichael, se demande si le document de travail n’envisage pas une réglementation dont la portée serait trop étroite et l’application trop intrusive.


à En limitant la réglementation aux cinq préjudices (exploitation sexuelle des enfants, terrorisme, incitation à la haine et à la violence, et distribution non consensuelle d’images intimes), le gouvernement omet l’intimidation, le harcèlement et la diffamation. De plus, le document envisage une définition étroite de la haine liée au Code criminel : l’abus criminel des femmes, des membres de la communauté LGBT+ et des Canadiens racialisés pourrait ne pas être fautif si la haine n’est pas exprimée dans un vocabulaire discriminatoire. Selon les auteurs, le public canadien s’attend probablement à une définition beaucoup plus large de ce qui est suffisamment préjudiciable pour être réglementé.


à Le délai de 24 heures proposé aux plateformes pour retirer le contenu préjudiciable pourrait être trop long pour le contenu clairement illégal comme la pornographie juvénile ou le terrorisme (la pornographie de vengeance aurait pu y figurer), mais manifestement pas assez pour d’autres contenus qui pourraient être ambigus et mériter une explication de la part des téléchargeurs avant qu’une publication soit retirée.


à Pour la même raison, l’obligation pour les plateformes de signaler aux autorités policières les contenus dénoncés risque d’englober trop de contenus ambigus et trop de Canadiens innocents.


Mais le plus important pour les deux professeurs, c’est qu’ils remettent en question la sagesse d’imposer aux plateformes une obligatoire générale de diligence pour surveiller de manière proactive l’ensemble de leurs contenus, qui se comptent en milliards (ou en millions dans le cas du Canada) de publications quotidiennes, et ce, sous la menace d’amendes si elles ne font pas une purge suffisante.


Cette mesure encouragera probablement les plateformes à supprimer trop de contenus. Les deux professeurs considèrent qu’il s’agit non seulement d’une menace générale de censure, mais aussi d’une menace précise pour les communautés vulnérables que le document cherche à protéger contre les préjudices en ligne, en signalant et en supprimant potentiellement des messages sur la liberté sexuelle ou les dangers de la suprématie blanche.


L’opposition des enseignants à la surveillance proactive suppose que les systèmes d’intelligence artificielle ne devraient pas être utilisés, même pour faire un cloisonnement approximatif entre le contenu néfaste et le monde civilisé. En fait, plutôt que d’appliquer une surveillance proactive, les auteurs proposent un système fondé sur les plaintes ou même une surveillance plus « proportionnelle » conçue par les plateformes elles-mêmes.


Il est difficile d’imaginer quelles méthodes moins intrusives les auteurs ont en tête pour remplacer le propre système de surveillance par l’intelligence artificielle de Facebook, dont le fonctionnement est assuré par 15 000 modérateurs, tout en composant avec son volume énorme, mais Facebook viendra peut-être s’asseoir à la table pour en discuter puisque l’entreprise a récemment affirmé avoir apporté des améliorations significatives à son filtre de contenu d’intelligence artificielle.


Les questions de préjudice social et de censure soulevées dans le document de travail et les contributions du public sont convaincantes, voire incendiaires. Rappelant les enjeux politiques explosifs entourant le débat sur le projet de loi C-10, dans lequel les conservateurs et leurs alliés de la liberté d’expression se sont distingués, la législation sur les préjudices en ligne n’est pas un projet de loi qu’il faut précipiter d’ici Noël uniquement pour tenir une promesse électorale.


Les libéraux devraient ralentir la cadence et bien concevoir le projet de loi avant de le pousser dans la fosse aux lions de la politique parlementaire.