Partager cet article

Médias : Nouveaux médias

Interdire les réseaux sociaux aux moins de 15 ans : un cadeau aux plateformes ?

Interdire les réseaux sociaux aux moins de 15 ans : un cadeau aux plateformes ?

Lu ici :

L’Australie l’a votée il y a trois mois. La France l’examine en procédure accélérée. Le Royaume-Uni y réfléchit. En Belgique, Jacqueline Galant (MR), ministre des Médias en Fédération Wallonie-Bruxelles, et Vanessa Matz (Les Engagés), ministre fédérale du Numérique, veulent également interdire les réseaux sociaux aux moins de 15 ans dès cette année.

L’intention est certes louable. Le problème, c’est que cette mesure ne fonctionne pas — et qu’elle pourrait même aggraver ce qu’elle prétend combattre.

Partout, le même scénario se répète : les adolescents contournent, les plateformes se frottent les mains, et les États se retrouvent à gérer des bases de données dont on préfère ne pas imaginer l’usage sous des gouvernements moins bienveillants. Des gardes fous existent aujourd’hui. Mais demain ?

Et si l’interdiction protégeait surtout… les plateformes ? Le problème n’est pas l’âge des utilisateurs. C’est le modèle d’affaires des plateformes. Et tant qu’on refuse de le toucher, on légifère dans le vide — en se donnant bonne conscience. […]

Trois mois après l’entrée en vigueur de l’interdiction australienne, le bilan est sans appel. Les adolescents ont massivement migré vers des applications non couvertes par la loi — Lemon8 (propriété de ByteDance, maison-mère de TikTok), Yope, WhatsApp. Trois enfants sur quatre interrogés déclarent vouloir continuer à utiliser les réseaux sociaux. VPN, faux âges, comptes créés avant l’interdiction : les contournements sont massifs, documentés, prévisibles. Ce n’est pas un échec de mise en œuvre. C’est la démonstration qu’on ne régule pas des usages en interdisant des outils.

Le cadeau empoisonné fait aux plateformes

Mais le plus pervers est ailleurs. Olivier Ertzscheid pointe une conséquence que personne ne semble vouloir voir : si plus aucun mineur de moins de 15 ans, aux yeux de la loi, ne peut et ne doit être présent sur ces plateformes, alors le peu de retenue et de régulation auxquelles elles s’astreignaient jusqu’ici — par crainte d’une atteinte trop profonde à leur image — deviendra instantanément caduque.

En clair : pourquoi Meta ou TikTok continueraient-ils à modérer les contenus violents ou pornographiques accessibles aux adolescents, puisque, légalement, il n’y a plus d’adolescents ? L’interdiction ne protège pas les mineurs. Elle offre aux plateformes un alibi en béton pour cesser de s’en préoccuper.

Et la responsabilité ? Elle bascule intégralement sur les familles. Si un adolescent de 14 ans accède à des contenus violents malgré l’interdiction, la faute sera imputable à la « défaillance parentale » ou au « contournement délibéré » — jamais à l’architecture de la plateforme qui les a mis en avant. Olivier Ertzscheid résume : « Quoi qu’il puisse se passer, ce ne sera plus du tout la faute des plateformes. » […]

Il y a quelque chose de confortable à annoncer une interdiction. Ça ne coûte rien, ça donne l’impression d’agir, et ça permet de pointer du doigt les « mauvais usages » plutôt que les mauvaises architectures.

Sauf que protéger supposerait de s’attaquer à ce qui rend ces plateformes toxiques : les algorithmes de recommandation qui maximisent le temps passé, les métriques d’engagement qui récompensent l’outrance, les dark patterns qui piègent l’attention. Tout cela reste intact. On préfère vérifier l’âge des utilisateurs plutôt que d’auditer le code des plateformes.

Le piège de la vérification d’âge

Et puis il y a l’éléphant dans la pièce : pour qu’une interdiction soit effective, il faut pouvoir prouver l’âge de chaque utilisateur. En Belgique, Vanessa Matz plaide pour une authentification de type « Itsme ». En Malaisie, c’est le passeport ou la carte d’identité nationale qui sont exigés.

La CNIL française a documenté le problème: utiliser un système d’authentification étatique pour accéder à des services en ligne « conduirait l’État à disposer d’une liste de connexions de nature purement privée ». Et pour les contenus sensibles, « le recours à ces dispositifs conduirait à un risque d’association d’une identité officielle à des informations intimes ».

Itsme, en Belgique, est une entreprise privée — pas une base de données gouvernementale. Mais la question reste entière : qui conserve les logs de vérification ? Qui peut y accéder ? Sous quelles conditions ? La politique de confidentialité d’Itsme précise que les données peuvent être divulguées « si nous sommes tenus de le faire par la loi ou une procédure judiciaire », « aux autorités étatiques conformément à leurs compétences », ou « dans le cadre d’une enquête sur une activité frauduleuse ou illégale ».

C’est standard et encadré par le RGPD. Mais cela signifie aussi que les traces de vérification d’âge — même compartimentées — peuvent être croisées avec une identité dans certains contextes judiciaires.

La CNIL recommande un système « double aveugle » où personne ne peut croiser identité et sites visités. Ce système n’existe pas encore à grande échelle. Et en attendant, chaque mécanisme de vérification crée une trace.

En Malaisie, c’est plus direct : les plateformes devront vérifier l’âge via le passeport ou la carte d’identité nationale. On constitue donc, au nom de la protection de l’enfance, des bases de données centralisées.

Sous un gouvernement démocratique et stable, c’est déjà discutable. Mais l’Histoire a cette fâcheuse tendance à ne pas rester stable.

Il suffit de regarder ce qui se passe aux États-Unis, où l’administration a investi massivement dans les outils de surveillance. Et à ceux qui prétendent que “nous ne sommes pas les Etats-Unis !”, nous ne pourrions que rappeler les contrats signés avec Palantir par la DGSI ou par l’OTAN.

Dans tous les cas, une infrastructure de vérification d’identité, même bien conçue, crée un précédent. Et les précédents ont cette particularité de survivre aux intentions de ceux qui les créent. Vu le contexte, et les échéances électorales à venir, on pourrait s’abstenir.

Responsabiliser les plateformes, pas les familles

Le diagnostic est partagé par toutes les sources analysées : oui, les réseaux sociaux posent des problèmes pour certains adolescents. Mais l’interdiction par l’âge rate sa cible. Comme l’explique Olivier Ertzscheid, « les plateformes sont parfaitement en capacité de limiter voire de réduire à néant ces nuisances » — mais « elles ne le font pas parce que ce n’est pas bon pour leur modèle d’affaires ».

La vraie question n’est donc pas « à partir de quel âge ? » mais « qui doit changer son comportement ? ». […]

C’est la piste défendue par Olivier Ertzscheid : reconnaître que les réseaux sociaux ont un « rôle actif » dans la circulation des contenus. Aujourd’hui, ils bénéficient du statut d’hébergeur — ils ne sont pas responsables de ce qui circule. En les requalifiant comme éditeurs, on les rend juridiquement responsables des contenus qu’ils amplifient algorithmiquement. Ce n’est plus l’adolescent qui a cliqué qu’on punit, c’est l’entreprise qui a mis le contenu en avant.

Classifier les plateformes selon leur nocivité

Au Royaume-Uni, les Libéraux-Démocrates proposent de classer les réseaux sociaux comme on classe les films — selon leur niveau de nocivité. L’idée : créer une pression économique pour que les plateformes « réécrivent leur code » afin de reconquérir le marché adolescent. Plutôt qu’interdire l’accès, on conditionne l’accès à des standards de conception.

« Si votre plateforme diffuse des contenus nocifs ou s’appuie sur des algorithmes addictifs et nuisibles, vous ne devriez être autorisé nulle part près de nos enfants. » — Ed Davey, Leader des Libéraux-Démocrates britanniques, BBC News

[…]

Exiger la transparence sur les données internes

Meta et TikTok mesurent en permanence l’impact de leurs choix de conception. Ces données existent, elles sont internes. Les rendre publiques — ou au moins accessibles aux régulateurs — permettrait de sortir du débat « études contre études ». C’est ce que demandent 42 organisations britanniques, dont le NSPCC (l’équivalent de Child Focus, en Belgique)

L’interdiction des réseaux sociaux aux mineurs est une réponse politique à un problème systémique. Elle donne l’illusion de l’action sans toucher aux mécanismes qui rendent ces plateformes toxiques. Elle transfère la responsabilité des entreprises vers les familles. Et elle crée, au passage, des infrastructures de surveillance dont on préfère ne pas imaginer les usages futurs. […]

Partager cet article

Publier une réponse

Nous utilisons des cookies pour vous offrir la meilleure expérience en ligne. En acceptant, vous acceptez l'utilisation de cookies conformément à notre politique de confidentialité des cookies.

Paramètres de confidentialité sauvegardés !
Paramètres de confidentialité

Lorsque vous visitez un site Web, il peut stocker ou récupérer des informations sur votre navigateur, principalement sous la forme de cookies. Contrôlez vos services de cookies personnels ici.


Le Salon Beige a choisi de n'afficher uniquement de la publicité à des sites partenaires !

Refuser tous les services
Accepter tous les services