Plusieurs lanceurs d’alerte et anciens employés de grandes plateformes numériques ont affirmé que certaines décisions prises par des entreprises de réseaux sociaux auraient favorisé la diffusion de contenus nuisibles afin d’augmenter l’engagement des utilisateurs.
Plus d’une douzaine d’anciens employés et sources internes ont révélé que des entreprises comme Meta et TikTok auraient pris des risques en matière de sécurité en laissant circuler davantage de contenus controversés ou potentiellement dangereux.
Un ingénieur de Meta, propriétaire de Facebook et Instagram, a notamment expliqué que la direction aurait autorisé la diffusion de contenus « limites », comprenant des propos misogynes ou des théories complotistes, afin de rivaliser avec la popularité de TikTok et maintenir l’attention des utilisateurs.
De son côté, un employé de TikTok a indiqué que certaines décisions internes visaient parfois à préserver de bonnes relations avec des responsables politiques, notamment pour éviter d’éventuelles sanctions ou réglementations.
Selon ces témoignages, la concurrence intense entre les plateformes, accentuée par la montée en puissance de TikTok et de ses vidéos courtes très engageantes, aurait poussé les entreprises à privilégier la visibilité et l’engagement, parfois au détriment de la sécurité des utilisateurs.