Coulsdon, un tranquillo sobborgo nel sud dell’Inghilterra, si è trovato inaspettatamente al centro di una controversia digitale. Gli abitanti hanno visto i loro post sui social media censurati senza un chiaro motivo, come se il nome stesso della città fosse diventato un tabù. La causa sembrerebbe risiedere negli algoritmi di moderazione di Facebook, che hanno erroneamente associato il nome del luogo a riferimenti alle droghe.
Quando Facebook scambia una città inglese per una piazza di spaccio… E’ un problema
La vicenda, riportata dal blog Inside Croydon, ha evidenziato un problema ben più ampio: l’eccessiva dipendenza delle piattaforme social dagli algoritmi per la moderazione dei contenuti. Attività commerciali, gruppi di quartiere, associazioni culturali e teatri locali hanno visto i loro post rimossi senza preavviso, solo perché contenevano il nome “Coulsdon”. Un residente ha dichiarato anonimamente che se “Coulsdon” è nel titolo, gli algoritmi lo collegano automaticamente alla droga, senza scampo.
Meta, la società madre di Facebook, ha definito l’accaduto un “errore ormai risolto”, ma il danno era fatto. La comunità di Coulsdon si è sentita ingiustamente censurata, vittima di un sistema di moderazione cieco al contesto e alle sfumature del linguaggio.
Potrebbe interessarti: Un algoritmo ha letto 3,5 milioni di libri per scoprire che…
Non è la prima volta che Facebook affronta episodi simili. Nel 2021 aveva censurato i post che menzionavano il “Plymouth Hoe“, un celebre luogo di Plymouth, scambiandolo per un termine offensivo (“hoe” indica, infatti, una donna non particolarmente affidabile o di facili costumi). Durante gli incendi negli Stati Uniti, i gruppi di emergenza si erano visti segnalare i loro post come spam proprio quando erano più necessari.
I dati interni di Facebook mostrano che gli algoritmi sono lungi dall’essere infallibili. Tra aprile e giugno, su 1,7 milioni di interventi per contenuti legati alla droga, 40.000 sono stati ripristinati dopo i ricorsi degli utenti. Per altre categorie, come lo spam, il numero sale a oltre 35 milioni di post inizialmente rimossi e poi riabilitati.
Il caso di Coulsdon evidenzia la necessità di un approccio più equilibrato e trasparente alla moderazione dei contenuti. L’automazione rischia di penalizzare utenti innocenti e soffocare la libertà di espressione. In un’era in cui le nostre vite si svolgono sempre più online, episodi come questo ci ricordano l’importanza di un dibattito aperto sul ruolo degli algoritmi nella società (che talvolta sono fondamentali) e sulla necessità di trovare un giusto equilibrio tra tecnologia e giudizio umano.
Ti è piaciuto questo articolo? Dicci cosa ne pensi nei commenti qui sotto o esplora altri contenuti dal nostro menù!
Hai una storia da raccontare o un'opinione da condividere? Mandaci il tuo articolo scrivendoci a [email protected].
Vuoi unirti al nostro team e collaborare con noi? Scopri come candidarti alla pagina dedicata: collabora.