Le sacrifice de Molly Russell ne sera peut-être pas vain. A l’automne dernier, cinq ans après le suicide de l’adolescente originaire de Harrow dans la banlieue de Londres, la justice britannique a conclu à la responsabilité des réseaux sociaux dans la spirale dépressive de la jeune fille. Selon les conclusions d’un magistrat, les algorithmes d’Instagram, Snapchat, Twitter et de Pinterest ont littéralement gavé la jeune fille de contenus sur le suicide, l’automutilation, la dépression, qui l’ont enfermée dans une bulle mortifère.

Au sommaire de cet article :

I. L’enfer secret de Molly Russell

II. Lobbyistes et communicants

III. La solitude des parents

IV. Un problème de santé publique

V. L’école impuissante

VI. Le scandale de l’âge minimum

VII. Les solutions techniques

Cette décision judiciaire est peut-être la première brèche dans l’édifice de réseaux sociaux passés maîtres dans l’art de se disculper. Des analystes veulent y voir la perspective d’une jurisprudence de portée internationale ouvrant la voie à une série de procès en noms collectifs — de ruineuses class actions — ayant la même portée que celle qu’a connue l’industrie du tabac dans les années 1990.

L’analogie n’a rien d’exagérée. Pendant des décennies, les producteurs de cigarettes ont ajouté des substances addictives dans le tabac. De la même façon, les réseaux sociaux sont construits sur un système où l’addiction n’est pas un effet secondaire fâcheux, mais est intégrée à la conception du produit. Dans leur cas, c’est l’algorithme de recommandation qui fait le travail. Dans les deux industries, le niveau d’addiction et la performance du modèle économique se confondent : autrefois, il s’agissait de vendre toujours plus de cigarettes, aujourd’hui le clic a pour fonction de générer des revenus publicitaires.

C’est cette addiction by design qui a coûté la vie à Molly Russell et à d’autres enfants dont le cas est moins médiatisé.

I. L’enfer secret de Molly Russell

Molly Russell s’est pendue dans sa chambre le 20 novembre 2017. Vers minuit quarante-cinq, elle s’était connectée une dernière fois sur Instagram et avait sauvegardé sur son téléphone un énième contenu sur le suicide, l’automutilation, la dépression. Sa descente aux enfers a duré moins d’un an. Les parents avaient bien noté une altération dans l’humeur de Molly, jusqu’ici heureuse et extravertie. « Juste une phase », avait-elle répondu. C’est dans l’intimité de sa chambre et de son téléphone portable que sa destruction mentale s’est organisée autour d’Instagram et de Pinterest. Molly Russell n’a pas simplement été exposée à des contenus susceptibles d’alimenter sa dépression. Elle en a été saturée. Au cours des six mois qui ont précédé, elle a été soumise à 16 300 éléments dont 2 100 étaient explicitement liés à la dépression, avec 138 vidéos que l’adolescente enchaînait, comme d’autres « bingent » les épisodes de Game of Thrones…

Sur Twitter, Molly Russell avait créé un compte secret sous l’identité @idfc_nomore, pour I don’t fucking care no more (je n’en ai plus rien à foutre). La première image que Molly partage est celle d’une petite fille maigrichonne qui regarde vers un ciel nocturne avec cette phrase « je suis prête à devenir une de ces étoiles ». La suite de son fil n’est qu’une litanie d’appels au secours.

Au cours de son investigation, le coroner – l’officier judiciaire chargé de déterminer les causes d’un décès – a fait venir de Menlo Park en Californie Elisabeth Langone, responsable du « bien-être et de la santé » chez Meta Platforms Inc. qui coiffe Facebook, Instagram, Whatsapp, et Messenger, une audience de trois milliards de personnes à travers le monde. Avec un culot en titane, Langone a défendu l’entreprise arguant du fait que les contenus en question étaient « safe » (sans danger), qu’ils avaient pour vertu de contribuer à la prise de conscience (« awareness »), tout en permettant aux jeunes gens de partager leurs états d’âme, et qu’en aucun cas, le déluge de contenus qui avaient enseveli le mental de Molly Russell ne contrevenait aux règles internes de Meta.

Lors des auditions organisées par le coroner, face à l’aplomb de la représentante de Meta, le père de Molly Russel interroge : safe, ce tsunami dépressogène ? « Si ce flux insensé et mortifère était effectivement inoffensif, ma fille Molly serait vivante aujourd’hui. Il est temps pour notre gouvernement d’adopter enfin une législation capable de protéger des jeunes gens au lieu de laisser ces plateformes monétiser la détresse de la jeunesse avec leurs profits comme seul objectif. »

II. Lobbyistes et communicants

Les plateformes sont protégées par le blindage d’une disposition légale américaine – à portée transnationale – qui les exonère de toute responsabilité par rapport aux contenus qu’elles hébergent. La seule limite porte sur les contenus explicitement violents, les menaces et la pédopornographie qui tombent sous le coup du droit commun. Sur tout le reste, leur responsabilité n’est pas engagée en vertu de la section 230 du Communication Decency Act adoptée par le Congrès américain en 1996, à une époque où l’Internet se résumait à quelques milliers de sites Web.

Le fructueux labeur des lobbyistes

Périodiquement, sous la pression des associations et d’une opinion de plus en plus anxieuse, les parlementaires américains évoquent une révision de la section 230. Mais c’est compter sans le poids du lobby de la Big Tech à Washington et à Bruxelles. Pour la seule année 2021, les cinq géants de la tech (Google, Apple, Meta, Amazon et Microsoft) ont dépensé 50 millions de dollars pour influencer les parlementaires américains, et une trentaine de millions d’euros en direction de la Commission européenne. Ces entreprises rivalisent aujourd’hui avec les manipulateurs historiques des appareils législatifs que sont les industriels de l’armement, du pétrole ou de la pharmacie. Une atténuation de la section 230 rendrait soudainement les plateformes vulnérables à une rafale de procès en nom collectif avec à la clef des pertes de revenu immenses.

Communication pernicieuse

Cette lutte sourde se déroule sur un fond de communication subtile de la part des plateformes. Aujourd’hui, la plus visée est TikTok, en raison de la puissance et de l’opacité de son algorithme. Celui-ci est le moteur-fusée de l’ascension du réseau social chinois, avec un temps passé d’une heure trente par jour en moyenne contre soixante-quatorze minutes pour YouTube et cinquante et une minutes pour Instagram. Ces derniers mois, TikTok a distillé une communication plutôt habile. Sur la controverse qui a placé le service dans le collimateur du gouvernement américain pour des questions de sécurité nationale, TikTok invoque une cabale antichinoise. Une thèse à laquelle sont sensibles certains médias français. La toxicité même du service est tout simplement niée. Même Sciences Po, sensible à tout ce qui brille, a jugé bon de consacrer sa session annuelle sur les nouvelles pratiques du journalisme à TikTok, avec une douzaine de séances préconisant la présence des médias et des journalistes sur le réseau. TikTok France ne pouvait espérer meilleure validation.

III. La solitude des parents

A une vingtaine de kilomètres au sud-est de Harrow, dans un joli quartier de Londres, un couple d’une quarantaine d’années est aux prises avec la même mécanique infernale qui a coûté la vie à Molly Russell. En cette fin 2022, Ashwin (les prénoms ont été changés) sort tout juste d’un congé sans solde. Ce cadre dans une entreprise de technologie pensait mettre à profit ce temps pour « récupérer » sa fille de 14 ans, Kira, elle aussi engagée dans une spirale dépressive. Luttant contre l’émotion qui le submerge, il donne le sentiment de perdre la partie ; à chacune de nos conversations, il évoque une situation qui se dégrade.

Depuis un an, avec son épouse, ils tentent de sortir leur fille de l’abîme comme on tente de sauver une personne qui se noie. Kira est déscolarisée et en dépression. Elle alterne les périodes de prostration et d’hyperactivité. Et le catalyseur de cette détresse est la combinaison smartphone-Instagram-TikTok sur lesquels elle passe souvent huit heures par jour.

Les parents essaient de gérer au plus près cette addiction. Ils savent qu’un brutal sevrage du smartphone serait pire que tout. C’est en tout cas ce que leur ont dit les médecins. « Nous avons par exemple débranché la box de British Telecom le soir. Mais Kira a réussi à détourner le forfait familial que nous utilisons pour nos quatre téléphones et à s’approprier l’intégralité du quota de données mobiles de la famille ce qui lui permettait de naviguer toute la nuit. Lorsque j’ai appelé British Telecom pour me plaindre, ils m’ont répondu qu’ils aimeraient parler à Kira pour comprendre comment elle s’y est prise car c’est très compliqué à faire d’après eux… » A plusieurs reprises, Ashwin a tenté de prendre de force le téléphone de sa fille. Un enfer. « Elle devenait violente contre nous, confie-t-il. Comme un drogué à qui on prendrait sa pipe de crack. »

Julie Albright, professeur de sociologie à l’université de Californie du Sud (USC) emploie les mêmes qualificatifs pour décrire les mécanismes d’addiction à TikTok que pour le crack cocaïne : accoutumance dès la première prise, une action psychologique comparable au jeu avec poussée de dopamine et un abandon hypnotique. Des recherches ont montré qu’il ne fallait pas plus de vingt minutes de navigation sur TikTok pour que son algorithme commence à inonder l’utilisateur de contenus hyper addictifs sur le sujet recherché.

Cette demande pousse les ados à une étonnante inventivité pour contourner les obstacles que l’on place sur leur chemin. C’est le constat commun des parents confrontés à l’addiction au smartphone. Ashwin raconte que lors d’un après-midi en famille à la campagne, Kira a emprunté à sa mère son téléphone, soi-disant pour photographier un cheval ; en quelques secondes, elle a installé un petit logiciel qui enregistre chaque action sur le clavier – comme le déverrouillage de l’appareil. Un peu plus tard, elle redemande à sa mère son téléphone, et récupère le code de sécurité qui lui permettra un accès aux contrôles parentaux et une navigation nocturne et tranquille.

Chaque famille a son anecdote, parfois cocasse sur ces stratégies de contournement. « La semaine dernière, j’ai surpris mon aînée [13 ans] dans une conversation hypertechnique sur la façon de circonvenir le contrôle parental d’Apple », raconte Christophe, lui-même titulaire d’un PhD en science informatique. Sa fille admet avoir récupéré un code lorsque sa mère, assise dos à un miroir, le tapait sur son téléphone, ce qui dénote une belle agilité cognitive.

Dans les familles, la gestion du smartphone n’est qu’une suite de tactiques parentales vite contrecarrées par la ruse. Chez Julia et Pierre, on utilise la méthode de la corbeille, où l’on dépose les smartphones le soir ou lors d’une tentative de « moment familial ». Un jour, les parents ont découvert que leur ado déposait depuis toujours dans la corbeille un vieux téléphone hors d’usage afin de préserver ses nuits connectées…

IV. Un problème de santé publique

Aujourd’hui, les parents de Kira font ce qu’ils peuvent, travaillent de chez eux, réduisent les déplacements professionnels. Ils tentent de limiter l’accès au portable de leur fille, gérant un subtil équilibre entre la maîtrise de son addiction et la nécessité de la maintenir connectée à son petit cercle d’amies. « De temps en temps, elle sort de sa prostration, accepte de voir ses copines, non sans avoir passé deux heures à choisir sa tenue… » Syndrome classique de la dépendance aux réseaux et à Instagram en particulier. Une recherche dans les bases de données académiques fait remonter des dizaines d’articles sur la relation entre la dégradation de l’estime de soi et l’usage des réseaux sociaux.

Le comportement de Kira est raccord avec une étude récente de Stem4, une association britannique spécialisée dans la santé mentale des ados. Selon celle-ci, les trois quarts des 12-21 ans n’aiment pas leur apparence physique et la proportion monte à 8 sur 10 chez les 18-21 ans. Plus généralement, la moitié des jeunes gens sondés avouent s’être désocialisés ou avoir adopté des régimes draconiens suite à la pression des réseaux sociaux.

Facebook connaissait les dangers d’Instagram

Pour Facebook, opérateur d’Instagram et de WhatsApp, cela n’a rien de nouveau. Selon les Facebook Files révélées par la lanceuse d’alerte Frances Haugen en 2021, 1 adolescente sur 5 estimait déjà qu’Instagram dégradait son image à ses propres yeux. Elles invoquent la pression de la communauté : conformation aux stéréotypes sociaux, recherche de la validation à coups de « like », critiques incessantes, matraquage de publicités ciblées et culpabilisantes. Donc, dès 2017-2019, bien avant la pandémie et le confinement, Facebook savait. Sa direction a décidé de mettre les études sous le tapis et de continuer son affaire comme si de rien n’était.

En France pas plus qu’au Royaume-Uni ou aux Etats-Unis, il n’existe de statistiques à même d’isoler avec précision la responsabilité des réseaux sociaux quant à la santé des adolescents. En revanche, le confinement est cité comme la cause principale de la détresse des ados. « Le confinement a bon dos, commente Melisa Basol du département psychologie de l’université de Cambridge au Royaume-Uni. Il s’est évidemment traduit par une immense détresse psychologique dont on continue de subir les effets, mais on sait aussi que l’usage des réseaux sociaux a explosé durant cette période. »

Certes, corrélation n’est pas causalité. Mais l’évolution du taux de suicides chez les adolescents suit de près la pénétration des réseaux sociaux. En France, le nombre de Tiktokeurs est passé de 4,4 millions en 2019 à 15 millions en 2021 et à 20 millions aujourd’hui. Et la concurrence fait rage sur les vidéos en format court : YouTube a lancé ses shorts et Instagram a triplé la durée de consultation que chacun pouvait se fixer – elle est maintenant de trente minutes par jour.

Tentatives de suicide en hausse chez les adolescentes

Malgré l’absence d’études sur les conséquences de l’addiction aux réseaux, les professionnels de la santé font des rapprochements inquiétants. Au cours des trois premiers mois de 2022, le taux de passage aux urgences pour tentative de suicide a augmenté de 27 % par rapport à la même période de l’année précédente, selon les chiffres les plus récents compilés par Libération. Et les données de 2021 sont encore plus éloquentes : au cours des onze premiers mois de 2021, le nombre de tentatives de suicide a augmenté de 40 % chez les jeunes filles par rapport à la moyenne des trois années précédentes sur la même période, alors qu’il restait stable chez les jeunes garçons. En dehors même des facteurs liés à la pandémie, les données gouvernementales révèlent un pic de tentatives de suicide chez les adolescentes de 15-17 ans.

Les jeunes sont de plus en plus sujets à des troubles à cause des réseaux sociaux.

Principe « pollueur-payeur »

Justine Atlan dirige e-Enfance/3018, une association créée en 2005 et reconnue d’utilité publique. Son numéro vert reçoit environ 80 appels par jour d’enfants en détresse, souvent victimes de harcèlement en ligne, ou déprimés. Dans ce flot, il y a évidemment des cas de suicides imminents. « Avant le confinement, nous en avions un par mois. Aujourd’hui nous en traitons un par jour », note la directrice générale d’e-Enfance. Ces appels sont immédiatement transmis à la police ou aux pompiers.

Sur l’attitude des plateformes, Justine Atlan tient un discours sévère. Comme les autres organismes du même type, e-Enfance/3018 est en partie financée par les grandes entreprises de la tech. « Elles détestent que je dise cela, mais pour moi c’est le principe pollueur-payeur : nous gérons les dégâts qu’elles occasionnent. » Ces associations sont issues d’une initiative de l’UE qui a voulu développer un réseau de numéros d’urgence au service des opérateurs de réseaux sociaux. Avec ces « help line », les associations deviennent les prémodérateurs de contenus. Une liaison directe entre les deux permet qu’un signalement effectué par une association se traduise par une action rapide de la plateforme, les plus réactives étant TikTok et Snapchat, selon Justine Atlan.

Mais les relations ne sont pas sans ambiguïté et il arrive que les opérateurs de réseaux instrumentalisent les associations de façon pernicieuse. Ainsi, cet automne, e-Enfance/3018 reprenait sur son site l’argumentaire de TikTok sur ses mesures en faveur de la protection de la jeunesse. Celles-ci sont ultra-minimalistes car on ne va pas brider un business model aussi épatant en limitant la machine addictive. Le psychologue d’e-Enfance/3018, Samuel Comblez, a été mis à contribution pour défendre la ligne, au point de se retrouver fin novembre dans un point de presse de TikTok aux côtés de la directrice des affaires publiques (autrement dit la lobbyiste en chef) de la plateforme. Syndrome de Stockholm ou maladresse, Comblez s’est livré à un plaidoyer en faveur des réseaux sociaux qui « offrent un cadre aux adolescents, en leur donnant le sentiment d’appartenir à une communauté où ils peuvent se rassurer », allant jusqu’à dire qu’il « faudrait remercier les réseaux sociaux » pour leur rôle joué auprès des jeunes. On avait l’impression de voir le centre des polytraumatisés de Garches ralliant les opposants à la ceinture de sécurité… Auréolé de son expertise de praticien, le psychologue s’infiltre partout : sur les plateaux télé et même dans les réunions de parents d’élèves, où il met certes en garde les parents sur l’abus des écrans, mais insiste sur l’innocuité des réseaux sociaux en recommandant ouverture, compréhension et « dédramatisation » face aux contenus dont sont gavés les enfants.

V. L’école impuissante

L’Education nationale a en principe adopté l’interdiction du téléphone dans l’enceinte des établissements. Mais la traduction dans les faits est variable. Témoignage d’une enseignante d’un lycée classé en Réseau d’éducation prioritaire (REP) de Seine-Saint-Denis : « C’est simple, la corrélation est de 100 % entre l’usage du smartphone et les résultats scolaires. Dès que l’usage se régule, les notes remontent. C’est systématique. Mais les problèmes subsistent pour 60 % des élèves. Ceux-là sont sur leur téléphone environ six heures par jour et jusque tard dans la nuit. Ils dorment littéralement en classe. Dans ce cas, je convoque les parents dont la moitié prend des mesures, mais après un mois, il faut faire une piqûre de rappel. » Quant aux tablettes, incarnation du futur de l’éducation, dans ce lycée du 93, une tentative d’introduction avait tourné à la catastrophe, l’appareil ouvrant la porte au pire d’Internet.

La situation n’est pas meilleure dans le privé. Par exemple dans deux collèges chics de Paris, l’Ecole alsacienne et le collège Sévigné. Là, des tablettes ont été distribuées dans un but pédagogique – accès à des applications et réduction du poids des cartables. En trois semaines, les enfants ont compris qu’une faille permettait d’installer Disney + et surtout de regarder sans compter les shorts de YouTube, des vidéos courtes comparables à celles de TikTok. « Il y a bien un système de contrôle parental, raconte une mère, mais il ne marche pas. Quand je m’en suis plainte, il m’a été répondu que peu de parents s’en inquiétaient. »

Entre cette mère qui veut mordicus attendre les 15 ans pour autoriser le smartphone et sa fille, c’est la bagarre permanente. Elle tient bon, malgré la pression ambiante assortie d’une petite musique persistante : la culpabilisation des parents. « Les arguments sont toujours les mêmes : nous, les mères attentives, on isolerait nos enfants, on les désocialiserait… C’est fascinant, alors que les parents sont maintenant l’ultime barrière contre les ravages des bulles cognitives, on se fait taxer d’oppresseurs technophobes. »

Quel que soit le type d’établissement, les enseignants estiment que l’enseignement aux médias et aux réseaux sociaux serait une solution efficace pour en contrer les abus. Mais, lorsque le problème n’est pas minimisé par la tutelle – « 80 % des ados vont bien » -, la question se heurte à un manque cruel de moyens où les profs, les infirmières, se retrouvent à faire le travail de prévention, ce qui n’est pas tenable dans la durée.

VI. Le scandale de l’âge minimum

Sur l’âge minimum d’accès aux réseaux, les plateformes sont allées au plus simple et au mieux de leurs intérêts en s’accordant sur un seuil de 13 ans, avec une simple déclaration lors de l’inscription.

Cette limite d’âge ne résulte en rien d’une prise en compte du bien-être mental des enfants, elle n’est fondée sur aucune étude médicale. Elle est née d’une législation américaine sur la protection de la vie privée face à la sophistication croissante de la publicité que l’on voyait poindre au début d’Internet. Le Children’s Online Privacy Protection Act remonte à 1998, équivalent du crétacé dans l’histoire du numérique (Facebook a été créé en 2006, Instagram en 2010, YouTube en 2011 et TikTok en 2016).

Preuve que cet âge est considéré comme bien trop bas par les législateurs, la Réglementation européenne pour la protection des données (RGPD), impose explicitement un âge limite de 16 ans en deçà duquel les données personnelles ne peuvent être collectées – donc l’accès aux réseaux est prohibé. Mais cette disposition est vidée de son sens par deux dispositions : l’une précise que l’accès peut descendre à 13 ans, dès lors que les parents sont d’accord, et l’autre que les Etats sont libres d’y déroger. Une discrète mais belle victoire remportée par les plateformes. Car elle a ouvert la porte à des interprétations variables selon les pays et l’efficacité du lobbying des opérateurs. L’Allemagne, l’Irlande, et quelques autres ont maintenu un âge minimum de 16 ans. La France a choisi une voie moyenne, avec un seuil théorique limité à 15 ans, assorti du concept de « consentement dualiste » permettant un accès aux moins de 15 ans dès lors que parents et enfants sont d’accord pour l’ouverture d’un compte. Peu de chances que le toxicomane refuse l’accès à l’armoire à pharmacie si la famille y consent…

La démission européenne face aux Etats-Unis

La France aurait très bien pu invoquer le droit européen pour interdire l’accès aux réseaux sociaux aux moins de 16 ans, à l’instar de l’Irlande et de l’Allemagne. Pourquoi n’en a-t-elle rien fait ? Le lobby mené par les plateformes n’y est sans doute pas étranger. Elles défendent un intérêt économique bien compris : l’habitude prise par un utilisateur de 13 ans a plus de chances de perdurer que si elle s’installe à 16 ans. Et cet usage se traduit en dollars sonnants et trébuchants. Le fameux ARPU (Average Revenue per User) est l’indicateur clef pour les opérateurs. Il est calculé sur le chiffre d’affaires publicitaire et les achats effectués sur le service.

L’évocation de la limite d’âge à 13 ans suscite la commisération chez les ados. Dans la pratique, l’introduction aux réseaux se fait bien plus tôt. Dans une consultation publique effectuée en 2021, la Cnil indique que « la première inscription à un réseau social semble intervenir actuellement en moyenne vers 8 ans et demi ».

VII. Les solutions techniques

8 ans et demi d’âge effectif d’accès aux réseaux sociaux contre une limite théorique de 13 ans – déjà dangereusement basse -, pose la question : a-t-on les moyens techniques d’interdire TikTok, Instagram, YouTube ou Snapchat à des enfants ?

La réponse est oui, sans l’ombre d’un doute. Les technologies existent. Même si ce n’est qu’une partie de la solution, non seulement elles peuvent résoudre la question de l’âge mais aussi celle de la détection de tendances suicidaires. Ce n’est ni simple ni gratuit, mais il est parfaitement possible d’installer sur les smartphones des ados des protections fiables.

Le professeur Kosinski lit sur les visages

Michal Kosinski est professeur à l’université Stanford où il enseigne la psychologie comportementale et plus particulièrement la psychométrie. Son article scientifique le plus fameux a été publié en 2017 sous le titre « What your Facebook Profile Picture Reveals about your Personality ». Analysée avec les outils adéquats, une image en dit, selon lui, autant qu’une séance de psy sur la personnalité ou l’état mental d’un individu. Mieux encore (ou pire), Kosinski fait la démonstration qu’une analyse poussée des traits du visage peut renseigner sur l’humeur, le caractère (introverti ou extraverti) et même les orientations sexuelles ou politiques. En tout cas, ses travaux montrent de façon incontestable qu’un réseau de neurones artificiels peut correctement évaluer l’âge et l’humeur. Reste la question de l’intégration de ces technologies dans un smartphone.

L’abomination de la reconnaissance faciale

La solution impose inévitablement le recours à une forme de reconnaissance faciale. Pour les défenseurs de la vie privée, tout ce qui s’apparente à cette technologie est le mal absolu. Pourtant, il est parfaitement possible de protéger l’identité d’une personne. Par exemple, l’analyse de la photo d’un utilisateur de réseau social ne se fera pas d’après l’image elle-même mais à partir de sa représentation mathématique. Meta mène en ce moment des tests avec la start-up britannique Yoti pour mettre au point un système fiable et automatisé de détection de l’âge. Pour la tranche 6-12 ans, la plus sensible, l’estimation de Yoti est exacte avec une marge d’erreur de plus ou moins 1,36 an, ce qui n’est pas si mal. Nul ne sait si et quand le logiciel sera déployé – ni s’il est vraiment inviolable.

Yoti est un système prometteur, mais qui n’est pas sans « friction » (il faut envoyer un selfie vidéo pour éviter la fraude) ; autrement dit, il réclame un certain effort de la part de l’utilisateur.

Par ailleurs, ce procédé se heurte à la piètre réputation des opérateurs de réseaux sociaux ; personne n’a envie de voir ses photos stockées chez Meta, connu pour sa légèreté dans la gestion des données personnelles. Et on ne parle pas de TikTok, né en Chine, pays où la reconnaissance faciale a été érigée en principe de gouvernement. Notons quand même que beaucoup de polices aux frontières – française par exemple – utilisent ces technologies sans émouvoir personne.

Le principe de la précaution butée

Il se trouvera donc toujours une autorité nationale chargée de la protection des données pour s’opposer à tout ce qui se rapproche de la reconnaissance faciale. La faiblesse des compétences techniques des régulateurs (Arcom, Cnil, Commission européenne, Département américain de la justice), couplée à leur perméabilité à toute forme de persuasion des plateformes, est la garantie d’un statu quo déconnecté de tout argument technique.

Il est pourtant possible de rendre cette détection compatible avec la protection individuelle. Les constructeurs de téléphones portables, qu’ils fonctionnent sous iOS ou Android, l’ont mise en œuvre avec succès depuis des années. Pour déverrouiller un iPhone récent, il n’est plus besoin d’entrer un code. Une caméra infrarouge projette 30 000 points sur le visage de l’utilisateur dont elle dresse une carte en trois dimensions ; celle-ci est comparée à celle que l’utilisateur a introduite lors du paramétrage de l’appareil. Si les deux coïncident, le téléphone se débloque. Mais l’intérêt de « Face ID » ou de son homologue pour Android réside dans la protection des données personnelles : toute l’opération d’identification se fait à bord du téléphone. Aucune image ou sa représentation mathématique ne quitte l’appareil ou ne se retrouve sur un serveur d’Apple ni de Google. « Actuellement, le Face ID d’Apple fonctionne avec un processeur dédié de l’iPhone mais on pourrait très bien imaginer un système entièrement intégré dans une application », précise un ancien ingénieur de la firme à la pomme qui a travaillé sur ces questions.

Dans la pratique, on peut donc avoir un téléphone qui vérifie l’âge de l’utilisateur et surveiller à intervalles réguliers son humeur. La détection d’un état dépressif sur plusieurs jours d’affilée est en mesure de déclencher une alerte vers les modérateurs de la plateforme ou vers l’adulte censé superviser l’usage de l’adolescent.

Les régulateurs dans le brouillard

Des régulateurs comme l’Arcom, autant que les défenseurs de la protection de la vie privée, rêvent périodiquement d’une transparence totale du fameux algorithme de ces plateformes, moteur de cette addiction généralisée. Pour les ingénieurs qui ont travaillé sur ces systèmes, cette idée n’a pas grand sens. D’abord, aucun géant de la tech ne livrera ce qui est pour lui l’équivalent de la formule du Coca-Cola. Par ailleurs, un système de recommandation est un agglomérat de millions de lignes de codes entretenues et ajustées en permanence par des légions d’ingénieurs. Prétendre les décortiquer réclame des ressources hors de portée pour les organismes régulateurs.

Si, dans le sillage du cas Molly Russell, la voie du « Big Tobacco » est suivie, il faudra des années avant qu’une jurisprudence mondiale se développe et qu’elle débouche sur une vague de procès collectifs avec à la clef des milliards de dollars de pénalités pour les Meta, Google, TikTok, ou Snapchat. Mais la menace est dans tous les esprits. Et les premières initiatives commencent à poindre comme celle du groupement des écoles publiques de Seattle, qui a assigné le 8 janvier les plateformes devant une cour fédérale après avoir recensé un accroissement de la détresse des élèves.

Les juristes des grandes entreprises de tech rappellent l’épisode Philip Morris. La marque immortalisée par les cow-boys Marlboro (qui eux n’étaient pas immortels : deux ont été emportés par cancer du poumon), a astucieusement devancé la crise en 2000 en promouvant la modération face à un danger avéré. Bien lui en a pris : non seulement ses ventes se sont maintenues, mais ses parts de marché ont augmenté, car ce coup de com’ s’est fait au détriment de ses concurrents. Cette histoire a fait l’objet de maintes études de cas dans les business schools, qui ont été disséqués par les stratèges de la Big Tech.