[ad_1]
J’ai toujours été fascinée et très inquiète en ce qui concerne l’algorithme de TikTok. Fascinée par sa capacité à capter mes émotions, mes colères ou mes problématiques les plus intimes. Inquiète par les tunnels dans lesquels j’ai pu m’engouffrer, les soirs de larmes. Ce qu’on appelle les « Rabbit Hole », je connais. Cette expression, qu’on pourrait traduire par « terrier du lapin » en français, en référence à Alice dans l’œuvre de Lewis Carroll, désigne le fait de se perdre dans un monde parallèle et étrange d’où il est difficile de s’extirper.
Cette semaine, Amnesty International a publié un rapport sur TikTok et sa capacité à faire tomber ses jeunes utilisateurs dans ces terriers. Déjà en 2023, l’organisation avait publié un rapport montrant comment dès lors que des jeunes manifestaient un intérêt pour les questions de santé mentale, TikTok leur proposait une spirale de contenus dépressifs et suicidaires.
Ce nouveau rapport a été réalisé avec Algos victima, un collectif de soutien aux mineur·e·s et leurs familles victimes de préjudices liés aux réseaux sociaux. En novembre 2024, elles étaient sept familles à engager un recours contre TikTok pour avoir exposé leurs enfants « à des vidéos qui banalisaient, voire idéalisaient, la dépression, l’automutilation ou le suicide ».
Les conclusions d’Amnesty vont dans ce sens : en moins d’une heure, les comptes d’ados « manifestant un intérêt pour des contenus relatifs à la tristesse ou à un mal-être psychologique étaient orientés vers des contenus dépressifs ». En trois à quatre heures, « les utilisateurs et utilisatrices se sont vu proposer des vidéos donnant une vision romanesque du suicide ou montrant des jeunes faisant part de leur intention de mettre fin à leurs jours ».
Je ne suis malheureusement pas surprise par ces chiffres. Peut-être parce que j’ai observé la même dynamique morbide du côté des contenus masculinistes ou d’extrême droite : en créant un faux compte de jeune garçon qui s’intéresse à la musculation, on est exposé, en moins de vingt minutes, à des vidéos invitant à dominer les femmes. De même, une enquête du « Wall Street Journal » en 2021 montrait que l’intérêt pour la politique américaine amenait des comptes TikTok jusqu’à des contenus violents et néonazis. Ces phénomènes terrifiants ne sont, là encore, pas surprenants : TikTok, comme toute plateforme de réseaux sociaux, est une multinationale, qui ne fonctionne que sur l’économie de l’attention, et le temps passé sur son application. Les multinationales de la tech cherchent le profit à tout prix, quitte à sacrifier quelques adolescents en cours de route.
Au-delà de ces révélations déjà effrayantes, il y a le constat d’impuissance. Amnesty dresse une liste de recommandations à l’intention de la Commission européenne, et de TikTok elle-même. Il semble difficile de croire à un changement, surtout du côté des plateformes : quels intérêts auraient-elles à modérer, réguler ? Les grandes entreprises ne font pas dans la charité ni la bonne volonté.
Finalement, elles suivent et suivront toujours leurs intérêts. Alors quoi, on reste sur un constat défaitiste ? Peut-être pas. S’il me semble complexe de demander à toute une génération de quitter TikTok, peut-être qu’on pourrait commencer à leur expliquer son fonctionnement. Le manque de transparence de son algorithme, son hyperpersonnalisation dopée aux données personnelles. Parler de santé mentale avec nos ados, aussi, sans être alarmistes ni édulcorer le réel. Et ainsi, apprendre à éviter les terriers.
Le journal des intelligences libres
« C’est par des informations étendues et exactes que nous voudrions donner à toutes les intelligences libres le moyen de comprendre et de juger elles-mêmes les événements du monde. »Tel était « Notre but », comme l’écrivait Jean Jaurès dans le premier éditorial de l’Humanité.120 ans plus tard, il n’a pas changé. Grâce à vous. Soutenez-nous ! Votre don sera défiscalisé : donner 5€ vous reviendra à 1.65€. Le prix d’un café.Je veux en savoir plus !
[ad_2]
Source link

