Le réseau social TikTok, propriété du géant chinois ByteDance, a annoncé une série de licenciements à grande échelle. Ces suppressions d’emplois, principalement concentrées sur les équipes de modération de contenu, marquent un tournant stratégique pour la plateforme, qui mise de plus en plus sur l’intelligence artificielle (IA) pour assurer la sécurité de son contenu.
Ampleur des Licenciements
Les estimations initiales évoquaient plus de 700 postes supprimés en Malaisie seule. Cependant, TikTok a par la suite précisé que ce chiffre était légèrement inférieur, s’élevant à moins de 500 emplois dans ce pays. Au niveau mondial, plusieurs centaines d’employés sont concernés par ces mesures de réduction d’effectifs.
Raisons des Licenciements
Ces décisions s’inscrivent dans une volonté de rationaliser les opérations de modération de contenu. TikTok souhaite ainsi améliorer l’efficacité de ses processus et réduire sa dépendance à une main-d’œuvre humaine importante. En effet, la plateforme affirme que 80% des contenus violant ses règles sont désormais détectés et supprimés automatiquement grâce à des algorithmes d’IA.
Calendrier et Conséquences
Les employés concernés ont été informés de leur licenciement par e-mail en fin de journée de mercredi. D’autres réductions d’effectifs sont prévues pour le mois prochain, notamment dans le cadre d’une réorganisation des opérations régionales.
Investissements dans l’IA
Malgré ces licenciements, TikTok continue d’investir massivement dans le développement de ses outils d’IA. L’entreprise a annoncé un budget de 2 milliards de dollars dédié à la confiance et à la sécurité de sa plateforme en 2024.
Contexte Régulatoire
Ces suppressions d’emplois interviennent dans un contexte de réglementation de plus en plus stricte des réseaux sociaux. En Malaisie, les autorités ont imposé aux plateformes comme TikTok de solliciter une licence d’exploitation d’ici janvier 2025, dans le but de mieux lutter contre la cybercriminalité.
Les choix stratégiques de TikTok reflètent une tendance de fond dans le secteur technologique : l’automatisation des tâches et l’utilisation de l’intelligence artificielle pour optimiser les processus. Si ces mesures permettent d’améliorer l’efficacité de la modération de contenu, elles soulèvent également des questions sur l’impact social de ces décisions, notamment en termes de qualité de la modération et de protection des utilisateurs.