Les personnes victimes d’abus en ligne peuvent désormais signaler les incidents au commissaire à l’eSafety pour qu’il prenne des mesures. Mais qu’est-ce qui constitue un harcèlement et que se passe-t-il après une plainte ?

À partir de dimanche, les adultes australiens victimes d’intimidation en ligne pourront signaler les incidents au commissaire à la sécurité en ligne.

De nouveaux pouvoirs ont été conférés à la commissaire à la sécurité en ligne, Julie Inman Grant, dans le cadre de la vaste loi sur la sécurité en ligne adoptée en 2021. En vertu de ces nouvelles lois, les entreprises de médias sociaux et autres sites web seront obligées de supprimer les contenus considérés comme des actes d’intimidation dans les 24 heures, sous peine de se voir infliger des amendes pouvant atteindre 500 unités de pénalité (jusqu’à 111 000 dollars pour les particuliers et 555 000 dollars pour les entreprises).

Les lois modifient également un système déjà en place pour signaler le harcèlement en ligne des enfants, en élargissant les personnes auxquelles elles s’appliquent au-delà des plateformes de médias sociaux, et en réduisant le délai de retrait de 48 heures à 24 heures.

Voici ce que nous savons sur le fonctionnement du système.

Si je suis victime de harcèlement en ligne, à qui dois-je m’adresser en premier lieu ?

Dans le cadre du système, vous devez d’abord demander à l’entreprise qui héberge le contenu intimidant, comme Facebook ou Twitter, de le retirer.

Vous devez également le signaler à la police. Le harcèlement en ligne reste un délit et les pouvoirs du commissaire à la sécurité électronique ne s’étendent qu’au retrait du contenu, et non à une action en justice.

Que se passe-t-il s’ils refusent ou ne répondent pas ?

Si la plateforme ou le site web ne supprime pas le contenu, vous pouvez le signaler au commissaire, qui peut lancer une enquête et émettre des avis pour que le contenu soit supprimé dans les 24 heures, faute de quoi l’hôte risque une amende.

Quel type de contenu est considéré comme du harcèlement ?

Le gouvernement a cherché à minimiser les craintes que le système ne constitue une censure de la parole en plaçant la barre « délibérément haut », a déclaré Inman Grant.

Un contenu est considéré comme une cyberintimidation adulte s’il est destiné à causer un préjudice grave et s’il est menaçant, harcelant ou offensant, et s’il vise un individu. Vous ne pouvez pas signaler des commentaires offensants sur des groupes minoritaires, par exemple.

« Un préjudice grave peut être causé par du matériel qui présente des menaces réalistes, qui met les gens en danger, qui est excessivement malveillant ou qui est implacable », a déclaré Inman Grant.

Quelque chose que les gens trouvent offensant ou désagréable ne serait pas suffisant en soi.

« Le système n’est pas destiné à réglementer les sentiments blessés, les dommages purement liés à la réputation, les mauvaises critiques en ligne, les opinions fortes ou le badinage », a-t-elle déclaré.

Il ne couvrira pas non plus les commentaires diffamatoires.

Dans une soumission à l’enquête parlementaire sur les médias sociaux et la sécurité en ligne, Inman Grant a déclaré que des exemples de ce qui atteindrait le seuil seraient la publication d’informations privées ou identifiantes sur quelqu’un avec une intention malveillante, l’encouragement à la violence contre un adulte australien en raison de sa religion, sa race ou sa sexualité, et les menaces de violence.

Existe-t-il un processus de révision ?

Si un avis est émis pour retirer un contenu, la législation exige qu’il y ait un processus de révision de la décision par le bureau du commissaire à la sécurité électronique. Il est également possible de faire appel de la décision auprès du tribunal d’appel administratif.

Est-ce différent de la législation anti-trolling ?

À la fin de l’année dernière, Scott Morrison a annoncé un projet de loi anti-trolling, qui est distinct de la loi sur la sécurité en ligne. La législation anti-trolling vise principalement à faciliter la tâche des personnes qui souhaitent démasquer des commentateurs anonymes en ligne pour les poursuivre en diffamation.

En vertu du projet de loi, les entreprises de médias sociaux peuvent se voir infliger des amendes et être tenues responsables des commentaires diffamatoires publiés en ligne par des commentateurs si elles n’aident pas à démasquer le commentateur anonyme.

Le gouvernement sollicite toujours des commentaires sur la législation et il n’est pas tout à fait clair si elle sera présentée ou adoptée au Parlement avant les élections fédérales.

Qu’en est-il des autres parties de la Loi sur la sécurité en ligne ?

La Loi sur la sécurité en ligne confère également au commissaire des pouvoirs importants en matière de réglementation d’autres contenus en ligne, y compris les contenus pour adultes.

Le commissaire travaille actuellement avec l’industrie à l’élaboration de codes permettant d’appliquer les nouvelles règles relatives aux contenus pour adultes, en vue d’élaborer une feuille de route visant à exiger la vérification de l’âge des contenus pour adultes en ligne d’ici la fin de l’année.