Dans le bulletin d’information de cette semaine, nous vous proposons de débattre des raisons pour lesquelles une commission multipartite souhaite une refonte totale de la législation afin de maîtriser le « Far West » en ligne.

Le Far West numérique a rencontré son shérif cette semaine. La commission mixte sur le projet de loi sur la sécurité en ligne a annoncé mardi qu’elle mettait un frein au « pays de l’anarchie » de l’industrie technologique en publiant son rapport sur cette législation pionnière. Dévoilant le document, le président conservateur de la commission, Damian Collins MP, a déclaré : « Le Comité a été unanime dans sa conclusion que nous devons mettre un terme à l’Ouest sauvage en ligne ».

Le rapport de 192 pages recommande une révision en profondeur du projet de loi, qui vise les entreprises qui fournissent du contenu généré par les utilisateurs – c’est-à-dire les réseaux de médias sociaux comme Facebook et Twitter et les plateformes de partage de vidéos comme YouTube et TikTok – ainsi que les moteurs de recherche comme Google. Le projet de loi impose aux entreprises technologiques un devoir de diligence pour protéger les utilisateurs contre les contenus préjudiciables, au risque de se voir infliger une amende substantielle par l’Ofcom, l’autorité de régulation du secteur des communications qui met en œuvre la loi.

Le projet de loi est important car il représente une tentative de réglementer correctement les sociétés de médias sociaux, les sites de partage de vidéos et les moteurs de recherche sous un même toit législatif pour la première fois. Le rapport est également important. Il s’agit d’un travail approfondi réalisé par un groupe multipartite de députés et de pairs qui s’y connaissent et qui ont soutenu les 170 conclusions à l’unanimité. Le gouvernement s’est déjà engagé à l’examiner sérieusement et le comité est également susceptible de servir de chien de garde pour le projet de loi une fois qu’il sera devenu loi – une structure de surveillance modelée sur le comité conjoint des droits de l’homme. Voici quelques-unes des modifications du projet de loi que le rapport recommande.

Clarifier les objectifs du projet de loi

La commission estime que le projet de loi devrait énoncer ses objectifs fondamentaux « clairement dès le début ». C’est également très pratique pour les lecteurs de TechScape qui veulent rester au courant d’un travail législatif complexe. Le rapport indique que l’Ofcom devrait protéger les citoyens britanniques en ligne en veillant à ce que les entreprises technologiques fassent ce qui suit se conforment à la législation britannique et ne mettent pas en danger la santé publique ou la sécurité nationale ; offrent un niveau de protection plus élevé pour les enfants que pour les adultes ; identifient et traitent le risque de « préjudice raisonnablement prévisible » découlant du fonctionnement et de la conception de leurs plateformes (algorithmes et autres) ; reconnaître et répondre au niveau disproportionné des préjudices subis par les personnes sur la base de caractéristiques protégées (handicap, âge, orientation sexuelle, religion, etc.) ; s’assurer que vos systèmes sont conçus pour être sûrs, c’est-à-dire qu’ils n’entraînent pas les utilisateurs dans des terriers de contenu dangereux ; sauvegarder la liberté d’expression et la vie privée ; et agir avec transparence et responsabilité en matière de sécurité en ligne.

Des contenus légaux mais nuisibles

L’une des parties les plus controversées de l’avant-projet de loi était l’article 11, qui traitait du devoir de diligence applicable aux adultes : les protéger des contenus légaux mais préjudiciables. Cet article a suscité des inquiétudes car, selon le projet de loi, non seulement le secrétaire à la culture aurait un rôle clé dans la définition de ces contenus – ce qui signifie que Nadine Dorries aurait, au moins techniquement, un rôle de censure sur ce qui est un discours acceptable en ligne – mais il contenait également une menace amorphe contre la liberté d’expression.

Le rapport propose de supprimer complètement l’article 11 et de le remplacer par des catégories de transgression qui reflètent l’illégalité dans le monde hors ligne. Il s’agirait d’interdire les contenus en ligne qui constituent un abus, un harcèlement ou une incitation à la violence ou à la haine sur la base des caractéristiques protégées par la loi sur l’égalité de 2010. La commission parlementaire espère ainsi que les plateformes technologiques seront en mesure de lutter contre les discours haineux.

La nouvelle approche impliquerait également l’interdiction d’autres formes de contenu qui sont illégales dans le monde hors ligne, comme l’intimidation des candidats aux élections et la facilitation de la traite des êtres humains. Le raisonnement du rapport est le suivant : comme ces préjudices sont déjà illégaux dans le monde hors ligne, « la société a reconnu qu’ils constituaient des raisons légitimes d’interférer avec les droits à la liberté d’expression [en ligne] ».

Exemptions journalistiques – et journalistes citoyens

Puisque nous parlons de liberté d’expression, le rapport recommande également un renforcement de l’exemption du projet de loi concernant le contenu des organisations de presse contre les retraits par les plateformes technologiques. Selon la nouvelle recommandation de la commission, si le contenu n’est pas illégal, il reste en ligne : « Nous recommandons que l’exemption du contenu des éditeurs de presse soit renforcée pour inclure une exigence selon laquelle le contenu des éditeurs de presse ne devrait pas être modéré, restreint ou retiré, sauf s’il s’agit d’un contenu dont la publication constitue clairement une infraction pénale ».

Il y a également une tentative de fournir une couverture aux « journalistes citoyens », tels que les blogueurs, en abordant les protections du projet de loi pour les contenus « d’importance démocratique ». Le rapport recommande plutôt que le projet de loi protège les contenus qui sont dans « l’intérêt public ». Les journalistes citoyens dont le contenu a été retiré par erreur ou injustement peuvent faire rétablir leur travail rapidement grâce à une procédure de plainte spécifique et accélérée.

Protection des enfants

Dans le projet de loi, l’une des trois obligations de diligence consiste à protéger les enfants contre les contenus préjudiciables (les deux autres sont la protection des utilisateurs contre les préjudices illégaux et la protection des adultes contre les contenus légaux mais préjudiciables). Le comité a recommandé un certain nombre de nouvelles mesures de protection des enfants. Il s’agit notamment d’exiger de tous les sites pornographiques qu’ils empêchent les enfants d’accéder à leur contenu, ce qui pourrait impliquer l’introduction de mesures d’assurance de l’âge ; la définition des services internet susceptibles d’être accessibles aux enfants devrait être tirée du code de conception adapté à l’âge du commissaire à l’information ; l’introduction de normes minimales pour les mesures d’assurance de l’âge (de la saisie de votre date de naissance sur un formulaire contextuel à une vérification plus stricte de l’âge) ; et Ofcom devrait élaborer un code de pratique pour la protection des enfants en ligne, qui devrait faire référence à la Convention des Nations unies relative aux droits de l’enfant, à l’AADC et au droit des enfants à recevoir des informations en vertu de la Convention européenne des droits de l’homme.

Algorithmes, désinformation, anonymat et sécurité dès la conception

Le rapport recommande de s’attaquer aux algorithmes nuisibles, aux abus anonymes et à la diffusion de fausses informations par le biais d’un « code de pratique de la sécurité dès la conception » supervisé par l’Ofcom. Ce code de pratique exige des plateformes qu’elles examinent leur fonctionnement, leur conception et la manière dont elles peuvent nuire aux utilisateurs. Par exemple, les entreprises technologiques doivent examiner les algorithmes qui poussent le contenu vers les utilisateurs et éviter qu’ils n’entraînent les gens dans des « trous de lapin » dangereux. La diffusion massive de fausses informations sera abordée par l’élaboration de mesures visant à empêcher le partage sans friction de contenus à grande échelle, et sera également couverte par le code de bonnes pratiques. Le trolling anonyme, c’est-à-dire la diffusion de fausses informations par des comptes anonymes, fera également l’objet d’une catégorie spécifique dans le code de bonnes pratiques. Les plateformes devront proposer des mesures pour traiter les comptes anonymes vexatoires, y compris la possibilité d’empêcher les trolls bannis de créer de nouveaux comptes.

Les grands acteurs devraient également être tenus de commander des audits annuels indépendants par des tiers sur les effets de leurs algorithmes, leurs évaluations des risques (dans le cadre desquelles ils exposent à l’Ofcom les préjudices que leurs services pourraient causer) et leurs rapports de transparence (qui comprendront des éléments tels que l’incidence des contenus illégaux et préjudiciables, et le nombre d’utilisateurs ayant rencontré ces contenus). L’Ofcom devrait également avoir le pouvoir d’inspecter ces audits et de procéder à ses propres vérifications.

Nouvelles catégories de délits

Le rapport recommande la création de nouvelles infractions pénales, notamment : le cyberflashing, l’incitation à l’automutilation, l’envoi intentionnel d’images clignotantes à une personne épileptique (dans l’intention de provoquer une crise) et l’envoi délibéré de communications fausses, persistantes ou menaçantes. Les dirigeants des entreprises technologiques sont également touchés par l’extension de la responsabilité pénale. Le rapport demande aux entreprises technologiques de nommer un dirigeant au niveau du conseil d’administration qui sera désigné comme le « contrôleur de sécurité » de l’entreprise et sera responsable d’une nouvelle infraction pénale : ne pas traiter les « défaillances répétées et systémiques qui entraînent un risque important de préjudice grave pour les utilisateurs ». La commission considère cette dernière infraction comme un filet de sécurité, mais les entreprises technologiques ne l’apprécient manifestement pas du tout.

Publicité

Martin Lewis, le champion des consommateurs, a fait une apparition passionnée lors d’une audition de la commission en octobre, expliquant aux députés et à ses pairs que la vie des gens était « détruite » par des fraudeurs utilisant son image dans des publicités en ligne frauduleuses. La commission a écouté et a recommandé que les publicités frauduleuses entrent dans le champ d’application du projet de loi. Selon sa proposition, l’Ofcom sera chargé d’agir contre les entreprises technologiques qui autorisent systématiquement des publicités frauduleuses ou nuisibles sur leurs plateformes.

Pas de monnaie pour les crypto

La Banque d’Angleterre a lancé mardi de nouveaux avertissements concernant les crypto-monnaies. Le gouverneur adjoint de la banque, Sir Jon Cunliffe, a déclaré que le prix de la monnaie numérique comme le bitcoin pourrait « théoriquement ou pratiquement tomber à zéro ». Dans le même temps, le blog du personnel de la banque, consacré au bitcoin, a déclaré : « C’est juste un tas de code qui n’existe que dans le cyberespace. Il n’est pas soutenu par l’État ». Même si Threadneedle Street a raison, cela ne sert qu’à souligner le statut anti-establishment des crypto-monnaies.