À l’ère des médias sociaux, ce n’est un secret pour personne que la modération de contenu pour les géants de la technologie comme Meta est devenue l’un des problèmes les plus urgents. Cependant, dans le cadre de la révolution de l’IA en cours, il semble qu’OpenAI pourrait avoir une solution, car la société a récemment annoncé qu’elle travaillait à la construction d’un nouveau système de modération de contenu avec GPT-4.
Comment fonctionne le système?
Dans un récent article de blog, OpenAI a souligné son nouveau développement et a déclaré que le processus commence d’abord par la saisie des directives de modération dans GPT-4, qui subit ensuite des tests rigoureux à l’aide d’un petit corpus de contenu problématique. Une fois les premiers résultats obtenus, des contributeurs humains interviennent pour analyser à la fois les succès et les lacunes de l’IA, améliorant ainsi sa courbe d’apprentissage. Dans les cas où le système rencontre des difficultés, les évaluateurs ont le privilège de se plonger dans GPT-4 pour des explications concernant ses décisions.
Lilian Weng, directeur du système de sécurité d’OpenAI, a souligné le potentiel de transformation de la nouvelle technologie et a déclaré : « Nous pensons que cela offre une vision plus positive de l’avenir des plates-formes numériques, où l’IA peut aider à modérer le trafic en ligne conformément à la politique et à la plate-forme spécifiques. soulager le fardeau mental d’un grand nombre de modérateurs humains.
En outre, OpenAI a souligné que ce nouvel outil de modération de contenu basé sur l’IA englobera plus que le contenu textuel, car il prévoit d’étendre ses capacités pour englober les images et les vidéos.
Besoin de la nouvelle technologie
Bien que certains puissent affirmer que les IA ne seront jamais en mesure d’égaler la cohérence des modérateurs humains, il est important de reconnaître l’impact que l’examen manuel du contenu pénible et graphique fait peser sur le bien-être mental des modérateurs humains. Par conséquent, un tel système qui soulage les modérateurs humains pourrait marquer un tournant important dans la modération de contenu.
De plus, pour des entreprises comme Meta, un tel système pourrait générer des économies financières substantielles. Selon une étude menée par l’Université de Zurich, l’utilisation de l’IA pour la régulation du contenu s’est avérée jusqu’à 20 fois plus rentable que la modération humaine traditionnelle.
Bien que les avantages d’un système d’IA soient évidents, il est important de noter que l’implication humaine restera cruciale. En effet, les modérateurs humains, pour le moment, conserveraient toujours le contrôle du résultat final, car les systèmes d’IA ne sont pas encore totalement infaillibles. « Nous ne pouvons pas construire un système 100% à l’épreuve des balles à partir de zéro… Mais je suis à peu près sûr que ce sera bon », a déclaré Weng.
