Il est devenu presque impossible d’échapper à TikTok. Chaque jour, des millions de jeunes plongent dans ce flot incessant de vidéos courtes et soigneusement calibrées pour capturer leur attention. Mais derrière l’innocente apparence d’un réseau social conçu pour divertir, une vérité plus sombre émerge : TikTok sait. L’entreprise sait depuis longtemps que son algorithme engendre des effets dévastateurs sur la santé mentale des jeunes, mais au lieu d’agir, elle a choisi de détourner le regard. La raison ? La sacro-sainte quête du temps d’écran et des profits.
Des documents internes, récemment rendus publics, révèlent que TikTok était pleinement conscient des dangers liés à une utilisation excessive de la plateforme, notamment l’anxiété, la perte de concentration et une dépendance numérique croissante. Une étude interne commandée par TikTok elle-même avait pourtant mis en garde contre ces effets négatifs. Mais plutôt que de mettre en place des garde-fous, l’entreprise a choisi de ne pas brider ses utilisateurs. Après tout, limiter le temps d’écran signifie diminuer les revenus publicitaires, et qui est prêt à sacrifier des millions de clics pour quelques troubles anxieux supplémentaires ?
Cette situation n’a rien d’un cas isolé. Depuis des années, les géants du web adoptent la même stratégie. Une croissance exponentielle à tout prix, même celui de la santé publique. On l’a vu avec Facebook, Instagram et maintenant TikTok. Le modèle économique est le même. Capter l’attention des utilisateurs le plus longtemps possible, à coup d’algorithmes puissants et sophistiqués, qui exploitent nos mécanismes cognitifs les plus basiques. TikTok, avec son format ultra-court et ses vidéos défilant à l’infini, a parfaitement réussi à créer une boucle addictive. On scrolle, encore et encore, sans jamais réellement s’arrêter. Et c’est bien là tout le problème.
Cette quête effrénée du temps d’écran soulève une question de fond : où se situe la limite de la responsabilité des entreprises technologiques ? Peut-on sérieusement se contenter d’outils de contrôle parental quand on sait que des millions d’adolescents sont exposés quotidiennement à des contenus conçus pour les rendre dépendants ?
On pourrait arguer que les utilisateurs sont libres de leurs choix. Après tout, rien ne nous oblige à passer des heures sur TikTok. Mais ce serait ignorer la puissance des algorithmes et la manière dont ils sont conçus pour maximiser notre engagement, souvent au détriment de notre bien-être. TikTok, comme les autres, ne vend pas seulement un produit. Il vend notre attention aux annonceurs, une attention qu’il manipule et prolonge par tous les moyens possibles.
Alors, pourquoi TikTok devrait-il être tenu responsable ? Parce que la recherche du profit ne peut plus justifier tout et n’importe quoi. Parce qu’il est inacceptable qu’une entreprise, consciente des dangers qu’elle fait courir à ses jeunes utilisateurs, préfère protéger ses revenus plutôt que leur santé mentale. Parce que le numérique, omniprésent dans nos vies, est devenu un acteur majeur de la santé publique, et qu’à ce titre, les géants du web doivent être régulés de manière stricte.
Aujourd’hui, TikTok tente de calmer la tempête en mettant en avant des initiatives cosmétiques comme le contrôle parental ou les rappels de pause. Mais ces mesures restent largement insuffisantes face à l’ampleur du problème. Elles arrivent, comme toujours, trop tard et trop peu.