Réguler pour mieux lutter ?

Le débat de ce 3e midi du droit posait la question de la régulation des discours de haine sur Internet comme moyen de mieux lescombattre.

Eric van den Bosch, juriste au SPF Justice et modérateur de ce midi du droit, a introduit le débat. Le discours de haine a toujours existé mais connaît une ampleur sans précédent due à sa diffusion sur les plateformes en ligne. Même si ce discours est punissable, les services de police sont impuissants face à l’énorme quantité de données. Les plateformes régulent les contenus mais pas toujours de façon appropriée, censurant parfois ce qui ne devrait pas l’être. Alejandra Michel et Saba Parsa ont abordé cette question à travers la notion juridique de discours de haine et des propositions de régulation de ce secteur.  

Alejandra Michel, chercheuse au Centre de Recherche Information, Droit et Société (CRIDS) de l’Université de Namur, a tout d’abord replacé le discours de haine dans son contexte. Premièrement, celui-ci se trouve au centre de tensions entre différents droits et d’intérêts (liberté d’expression vs. droit au respect de la vie privée, principe de non-discrimination). Deuxièmement, ce discours présente des spécificités propres à sa diffusion sur Internet. Ainsi, il peut désormais avoir une portée internationale, perdurer et être repris par d’autres personnes et/ou médias. Troisièmement, même si des instruments internationaux existent pour le réguler, ils sont difficiles à mettre en œuvre. La difficulté de réguler la problématique résulte de la complexité de définir la notion même de « discours de haine ». Il n’existe pas de définition unanimement partagée vu les différences de cultures et d’acceptions du concept de liberté d’expression. Une définition trop restrictive est risquée et il faut faire attention à l’instrumentalisation de la loi par le politique. L’intervention de la Cour européenne des droits de l’homme dans certains dossiers a parfois été controversée car l’appréciation du discours de haine s’avère toujours délicate. Finalement, quelle approche adopter ?

Alejandra Michel insiste sur la transparence des plateformes, sur les possibilités de recours effectifs, sur l’éducation aux médias, sur la prise en compte de la spécificité d’Internet et sur la collaboration entre les différents acteurs. Elle met en garde contre les dangers potentiels du recours à des amendes importantes.

Saba Parsa, 1er vice-présidente du Conseil supérieur de l’audiovisuel (CSA), avocate, DPD certifiée et professeure de droit à la HE2B (qui remplace, Clara Sommier, Youtube UE, retenue par d’autres obligations professionnelles), a tout d’abord présenté le contexte général du discours de haine. L’évolution technologique et la globalisation ont un impact sur la consommation et la production de contenus audiovisuels. Le citoyen est de plus en plus mobilisé dans sa consommation et dans sa production de contenus audiovisuels et ce de plus en plus en jeune. Les moyens d’expression ont donc été démultipliés et on constate que les gens se sentent protégés derrière un écran. Il y a un besoin et une urgence à agir vu les conséquences que cela peut produire (cyberharcèlement, etc.). Il existe une asymétrie dans la régulation car les medias traditionnels strictement régulés, et les plateformes, beaucoup moins. L’autorégulation par les plateformes n’est plus suffisante. Un travail collaboratif entre les pouvoirs publics et les acteurs privés est nécessaire. L’Union Européenne a pris diverses initiatives (directives, recommandation de la commission européenne) mais que se passe-t-il en Belgique ?

Pour conclure, le cadre régulatoire belge sur lequel porte la note d’intention du CSA est présenté. La note touche à la transparence, au signalement de contenu illicite et à la lutte contre la diffusion de ces contenus. Elle suggère de prévoir des amendes, sans lesquelles le dispositif ne pourrait pas fonctionner. Le but du CSA est d’assurer la co-régulation et de travailler main dans la main avec les autres acteurs.