Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Le Blog de jlduret

Le Blog de jlduret

Pensez juste ou pensez faux mais pensez par vous-même ! Depuis Socrate, le devoir du penseur n’est pas de répéter la doxa du moment mais de la questionner. Sans cette liberté d’exprimer opinions et pensées, point de démocratie.


La technologie d’autocensure des images de Facebook est défaillante et nuit à la liberté d’expression

Publié par jlduret sur 20 Septembre 2022, 22:24pm

Catégories : #Censure Facebook

La technologie d’autocensure des images de Facebook est défaillante et nuit à la liberté d’expression
C'est le Conseil de surveillance de Meta qui estime que la technologie d’autocensure des images de Facebook est défaillante et nuit à la liberté d’expression

La technologie censure automatiquement les propos.

 

Le conseil de surveillance de Meta a déclaré que la société devait améliorer son système automatisé de retrait d’images. Le système a retiré par erreur des messages contenant une image de bande dessinée illustrant la violence policière en Colombie.

L’image avait été ajoutée à la base de données Media Matching Service de Meta. Une fois qu’une image est ajoutée à la base de données, elle est automatiquement retirée lorsqu’elle est publiée.

Selon le Conseil de surveillance, 215 personnes ont fait appel de la suppression de l’image, et 98 % d’entre elles ont obtenu gain de cause. Malgré ces appels réussis, Meta n’a pas retiré l’image de la base de données.

« En utilisant des systèmes automatisés pour supprimer le contenu, les banques de services de rapprochement des médias peuvent amplifier l’impact de décisions incorrectes prises par des réviseurs humains individuels », a déclaré le conseil. Elle ajoute que les appels auraient dû déclencher un réexamen de l’image et son retrait de la base de données, car une mauvaise décision peut entraîner l’interdiction indéfinie d’une image, malgré les conclusions différentes des examinateurs humains.

Le conseil a recommandé de mettre en place davantage de méthodes de surveillance.

« Le conseil est particulièrement préoccupé par le fait que Meta ne mesure pas l’exactitude des fichiers du Media Matching Service pour des politiques de contenu spécifiques », note-t-il. « Sans ces données, qui sont cruciales pour améliorer le fonctionnement de ces banques, l’entreprise ne peut pas dire si cette technologie fonctionne plus efficacement pour certaines normes communautaires que pour d’autres. »

Le conseil de surveillance a également demandé à Meta de publier les taux d’erreur des contenus qui ont été inclus par erreur dans la base de données du service de correspondance des médias.

Le conseil a également examiné un cas concernant la politique de Facebook en matière d’extrémisme

Dans lequel il semblait ne pas faire la différence entre signaler des groupes extrémistes et les soutenir.

Le conseil a conclu que Meta avait commis une erreur en supprimant un message en ourdou faisant état de la réouverture par les talibans d’écoles pour les filles et les femmes. Facebook a supprimé le message pour avoir enfreint sa règle interdisant de « faire l’éloge » de groupes extrémistes comme les Talibans. La suppression de la publication a fait l’objet d’un appel, mais n’a jamais été réexaminée car Facebook compte moins de 50 réviseurs parlant urdu.

Le conseil d’administration a déclaré que cette affaire « peut indiquer un problème plus large » concernant les règles relatives aux organisations dangereuses.

Les règles ne sont pas claires pour les modérateurs et les utilisateurs, et les sanctions sont également « peu claires » et sévères.

Le conseil a recommandé à Meta de clarifier les règles et la définition de l’expression « faire l’éloge » d’individus dangereux et d’ajouter des réviseurs.

Source: Reclaim The Net – Traduction par Aube Digitale

 

 

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article

Archives

Nous sommes sociaux !

Articles récents