Réglementation des plateformes : le réveil tardif et timide du Conseil fédéral

Le Conseil fédéral met enfin en consultation le projet de loi sur la régulation des plateformes de communication et des moteurs de recherche. Un premier examen du projet montre qu’il apporte des avancées importantes, sur les procédures de modération et de recours et sur l’obligation de représentants légaux. Il reste toutefois trop timide sur de nombreux points, notamment en ce qui concerne la régulation de la publicité sur les plateformes et les mesures contre les risques pour l’ensemble de la société. Les défis posés par les moteurs de recherche ne sont pas non plus suffisamment pris en compte.

Le Conseil fédéral a enfin sorti de ses tiroirs le projet de réglementation des plateformes. Il soumet la « Loi fédérale sur les plateformes de communication et les moteurs de recherche » (LPCom) à consultation jusqu’en février. Nous vous présentons ici nos impressions après une première lecture du projet et soulevons quelques questions et points importants, sans prétendre à l’exhaustivité. Une réponse approfondie à la consultation fera l’objet des prochains mois.

Un projet important – mieux vaut tard que jamais

Le simple fait que la loi soit enfin soumise à consultation constitue une avancée importante, même si elle arrive beaucoup trop tard. Depuis des années, la réglementation des plateformes – et donc les droits des utilisateurs et utilisatrices dans l’espace public numérique ainsi que les risques que représentent les plateformes pour l’ensemble de la société – était le jouet d’une politique dilatoire et des intérêts économiques au sein du Conseil fédéral. Mais mieux vaut tard que jamais.

Le projet de loi témoigne de la volonté de mettre en place des procédures de modération, de recours et de règlement des litiges soigneusement conçues pour les utilisatrices et utilisateurs. Ainsi, les utilisateurs et utilisatrices disposent de différents moyens, à différents niveaux, pour défendre leurs droits. La crainte maintes fois évoquée d’un « overblocking » (les plateformes bloquent trop de contenus) doit être constamment mise en balance et ceci avec une meilleure protection contre la diffamation, les menaces ou la discrimination. Nous saluons le fait que la Confédération ait abordé cette tâche délicate avec le soin nécessaire.

Il est important que la Confédération mette enfin en œuvre la demande transmise depuis 2019 (!) selon laquelle les grandes plateformes doivent désigner un représentant légal (domicile de notification) en Suisse (la proposition initiale prévoyait en fait cela cependant, dès 200 000 utilisateurs et utilisatrices). Le domicile de notification crée une « boîte aux lettres » qui permet aux utilisateurs et utilisatrices et aux autres parties prenantes d’avoir un point de contact avec les plateformes dans leur propre État de droit. Cela supprime des obstacles importants et constitue la base pour faire valoir les droits existants en ligne et appliquer les lois.

Le projet de loi ne répond pas aux défis posés par les moteurs de recherche

Comme son titre l’indique, la nouvelle loi vise à réglementer à la fois les plateformes de communication (« réseaux sociaux ») et les moteurs de recherche. Mais une question légitime se pose : pourquoi traiter ces deux services très différents de la même manière et les réglementer avec les mêmes dispositions ? Cette question est d’autant plus pertinente que le projet de loi semble inadapté à certains égards aux problématiques et au fonctionnement des moteurs de recherche. Par exemple dans les domaines de la définition des utilisateurs/utilisatrices, de la modération, de la transparence des systèmes de recommandation (algorithmes) et des répercussions sur l’ensemble de la société.

De plus, si les moteurs de recherche doivent être réglementés, les chatbots IA doivent impérativement faire partie du projet. Ils sont en train de transformer complètement, voire de prendre le contrôle, de la recherche en ligne. Une base réglementaire pour les moteurs de recherche doit impérativement être conçue de manière à inclure les chatbots IA en tant que nouveaux moteurs de recherche ou sources d’information pour la formation de l’opinion. Nous nous demanderons sérieusement si un projet de loi distinct pour les moteurs de recherche ne serait pas plus approprié pour relever les défis liés aux droit et aux répercussions sur la société. 

La délimitation des services à réglementer s’avère également très difficile. En ce qui concerne la définition, il convient d’examiner si les services d’hébergement tels que WordPress.com ne tombent pas également sous le coup de la loi. Quant à la taille des services, le nombre d’utilisateurs et utilisatrices correspondant à 10 % de la population semble en soi raisonnable et similaire à celui retenu par l’UE. Toutefois, les petites plateformes ont également un impact significatif lorsqu’il s’agit de traiter les risques pour la société. La définition large du terme « utilisateur » / « utilisatrice » – y compris pour les plateformes de communication – est à considérer comme positive. Est déjà considéré comme utilisateur ou utilisatrice toute personne qui accède à une plateforme de médias sociaux et peut y consulter des contenus, même si elle ne possède pas de compte. Cela modifie l’ordre de grandeur des plateformes ouvertes (ou plus ouvertes), telles que Bluesky.

Pour les services en ligne réglementés, la loi prévoit une série de sanctions en cas de violation des dispositions. En dernier recours, il est possible de bloquer l’accès aux plateformes. Le projet ne précise pas comment cela serait mis en œuvre. Les blocages de réseau seraient un instrument évident à cet effet, mais ils constituent une restriction disproportionnée des droits fondamentaux des utilisateurs et utilisatrices d’Internet, sont faciles à contourner et entraînent des dommages collatéraux sur le plan technique. Pour nous, il est clair que la loi doit stipuler que cette sanction ne peut pas être mise en œuvre par des blocages de réseau.

Absence de restrictions concernant la publicité invasive

La réglementation de la publicité reste beaucoup trop laxiste. Société Numérique s’engage pour que la publicité basée sur le profilage soit limitée sur les plateformes et les moteurs de recherche. La publicité basée sur le profilage à partir de données personnelles sensibles constitue notamment un danger pour l’intégrité des utilisateurs et utilisatrices. Il devrait également y avoir des règles particulièrement strictes pour la publicité destinée aux jeunes. Le projet ne traite pas du tout ces deux domaines, mais se limite à des règles de transparence. Mais même sur ce point, le projet reste à mi-chemin et ne crée pas de transparence sur les commanditaires de la publicité et l’origine des fonds qui la financent. Nous voulons changer cela : les utilisateurs et utilisatrices doivent pouvoir voir qui a payé une publicité, c’est essentiel pour se forger une opinion. Dans l’ensemble, le Conseil fédéral doit développer et renforcer la section relative à la publicité sur les plateformes et les moteurs de recherche.

L’évaluation des risques reste sans effet si aucune mesure n’est prise

La partie consacrée à l’évaluation des risques pour l’ensemble de la société occupe également une place centrale dans le projet. Elle vise à permettre aux services d’évaluer leur impact global sur la société et de lutter contre les effets néfastes. Malheureusement, la deuxième partie – l’obligation de prendre des mesures de réduction des risques – est facultative. Cela rend l’évaluation des risques intéressante, mais inefficace pour atteindre l’objectif d’une société démocratique et sûre. Concrètement, les réseaux sociaux évalueront que leur impact sur la santé mentale est négatif. Mais personne ne peut les obliger à prendre des mesures pour y remédier. Nous examinerons également de près si les domaines de risques systémiques mentionnés dans la loi – diffusion de contenus illégaux, droits fondamentaux, conséquences négatives sur la formation de l’opinion publique, les processus électoraux et référendaires, la sécurité et l’ordre publics ainsi que la santé publique – sont exhaustifs.

Il est important que l’accès aux données soit le plus facile possible.

L’accès aux données est un élément important que l’UE a déjà mis en œuvre. Ces données et leur analyse permettent à une société de savoir comment les débats naissent et évoluent, qui exerce une influence et qui ne participe pas au discours public. La science, la société civile et le journalisme, en tant que quatrième pouvoir, ne peuvent remplir leurs fonctions importantes pour la société que s’ils ont accès aux données. Cependant, les critères stricts imposés aux organisations de la société civile constituent un obstacle majeur et doivent être assouplis. Le journalisme doit également bénéficier d’un accès, ce qui n’est pas le cas dans le projet. Il est également important que la publicité soit accessible dans les archives publicitaires pendant plus longtemps que l’année proposée. C’est la seule façon d’observer les campagnes et l’évolution de l’opinion publique sur une plus longue période.