# Les modérateurs de contenu ont signalé 80 % d'erreurs dans les systèmes d'IA.
L'intelligence artificielle complique plutôt que de simplifier le travail des modérateurs de contenu. Elle ne peut pas reconnaître de manière fiable la violence et le mal, écrit Bloomberg en se référant à 13 filtres professionnels de matériel en ligne.
Un des employés de TikTok sous le pseudonyme de Kevin a déclaré qu'il y a plus d'un an, on lui avait demandé d'utiliser un programme d'IA dans son travail. Il a évalué le nombre d'erreurs à environ 70 %. Par exemple, l'intelligence artificielle peut signaler un faible niveau de carburant sur le tableau de bord de la voiture dans la vidéo, alors qu'elle devrait analyser le compteur de vitesse affichant 200 km/h.
Kevin pense que, malgré les difficultés qui se posent, les employeurs continueront à remplacer les gens par des machines.
Des modérateurs professionnels ont confirmé l'affirmation : l'IA commence à être appliquée plus rapidement qu'elle n'apprend à filtrer efficacement le contenu nuisible.
Les experts craignent l'émergence d'un environnement en ligne contrôlé par l'intelligence artificielle, où la haine, la propagande, la corruption des enfants et d'autres formes de menaces en ligne se répandront librement.
«Si l'on s'engage sur la voie de l'intégration de l'IA pour réduire le nombre de spécialistes en sécurité, cela entraînera une diminution. Des personnes en chair et en os sont nécessaires», a déclaré Lloyd Richardson, directeur des technologies du Centre canadien de protection de l'enfance.
Le travail de modérateur de contenu cause des traumatismes émotionnels, et recruter un nombre suffisant de personnes est une tâche difficile. Les utilisateurs sur YouTube téléchargent plus de 20 millions de vidéos par jour. Les entreprises parient sur l'intelligence artificielle, mais cela ne fait que compliquer les choses.
Parmi les 13 modérateurs avec lesquels les journalistes de Bloomberg ont parlé, 12 ont déclaré que le travail était devenu plus compliqué après l'intégration des réseaux neuronaux.
«Nous ne pouvons pas nous fier aux suggestions de l'IA. Dans 80% des cas, elle se trompe. Nous ne regardons même pas ses propositions», a déclaré Janerke Kaidenova, une employée de 36 ans d'une entreprise kazakhe de modération de contenu.
Kevin passe du temps à corriger les erreurs en plaçant manuellement des étiquettes hyper précises pour tout ce qu'il voit. Ce travail augmente seulement la charge de travail et prend du temps qui pourrait être consacré à des tâches plus urgentes.
Il est convaincu que ses corrections minutieuses forment en réalité le système, et qu'au final, il sera remplacé, même si la direction ne le dit pas clairement.
Rappelons qu’en mai 2024, Reddit a annoncé un partenariat avec OpenAI, qui a fourni aux redditeurs et aux modérateurs de nouvelles fonctionnalités alimentées par l’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les modérateurs de contenu ont signalé 80 % d'erreurs des systèmes d'IA.
L'intelligence artificielle complique plutôt que de simplifier le travail des modérateurs de contenu. Elle ne peut pas reconnaître de manière fiable la violence et le mal, écrit Bloomberg en se référant à 13 filtres professionnels de matériel en ligne.
Un des employés de TikTok sous le pseudonyme de Kevin a déclaré qu'il y a plus d'un an, on lui avait demandé d'utiliser un programme d'IA dans son travail. Il a évalué le nombre d'erreurs à environ 70 %. Par exemple, l'intelligence artificielle peut signaler un faible niveau de carburant sur le tableau de bord de la voiture dans la vidéo, alors qu'elle devrait analyser le compteur de vitesse affichant 200 km/h.
Kevin pense que, malgré les difficultés qui se posent, les employeurs continueront à remplacer les gens par des machines.
Des modérateurs professionnels ont confirmé l'affirmation : l'IA commence à être appliquée plus rapidement qu'elle n'apprend à filtrer efficacement le contenu nuisible.
Les experts craignent l'émergence d'un environnement en ligne contrôlé par l'intelligence artificielle, où la haine, la propagande, la corruption des enfants et d'autres formes de menaces en ligne se répandront librement.
Le travail de modérateur de contenu cause des traumatismes émotionnels, et recruter un nombre suffisant de personnes est une tâche difficile. Les utilisateurs sur YouTube téléchargent plus de 20 millions de vidéos par jour. Les entreprises parient sur l'intelligence artificielle, mais cela ne fait que compliquer les choses.
Parmi les 13 modérateurs avec lesquels les journalistes de Bloomberg ont parlé, 12 ont déclaré que le travail était devenu plus compliqué après l'intégration des réseaux neuronaux.
Kevin passe du temps à corriger les erreurs en plaçant manuellement des étiquettes hyper précises pour tout ce qu'il voit. Ce travail augmente seulement la charge de travail et prend du temps qui pourrait être consacré à des tâches plus urgentes.
Il est convaincu que ses corrections minutieuses forment en réalité le système, et qu'au final, il sera remplacé, même si la direction ne le dit pas clairement.
Rappelons qu’en mai 2024, Reddit a annoncé un partenariat avec OpenAI, qui a fourni aux redditeurs et aux modérateurs de nouvelles fonctionnalités alimentées par l’IA.