Video con personaggi surreali, linguaggio volgare e bestemmie non solo affollano TikTok e Instagram, ma sono riusciti a infiltrarsi persino dentro YouTube, superando i filtri pensati per proteggere i più piccoli. Nonostante i sistemi di intelligenza artificiale avanzati, i contenuti apertamente inappropriati finiscono tra quelli consigliati ai bambini, lasciando i genitori con una falsa sensazione di sicurezza.
Trallalero trallalà… e parte la bestemmia: cosa stanno guardando davvero i bambini con i brainrot meme?
Il fenomeno ha un nome preciso: brainrot meme. Si tratta di contenuti digitali costruiti attorno a personaggi generati con l’utilizzo di specifici modelli di intelligenza artificiale, spesso con tratti infantili, colori vivaci e canzoncine ripetitive. L’apparenza, però, è solo un travestimento.
Dietro le animazioni si nascondono frasi volgari, bestemmie e allusioni violente, pronunciate con nonchalance da squali parlanti e alligatori volanti. Una sorta di nonsense digitale che diverte gli adolescenti e confonde i più piccoli. Peggio dei meme usati a scopo diffamatorio.
Di per sé non ci sarebbe nulla di grave se non fosse che anche i minorenni hanno accesso a questo materiale. Pensate soltanto a YouTube Kids, ovvero il canale dedicato a loro per i video online. Questa app è teoricamente pensata per filtrare e proporre contenuti sicuri…eppure non ci è riuscita con i brainrot che hanno trovato il modo di aggirare i controlli.
Come ci sono riusciti? È tanto semplice quanto inquietante. I sistemi di machine learning che sorreggono i video li classificano in base a metadati, parole chiave, trascrizioni automatiche e riconoscimento visivo. Tuttavia, l’aspetto cartoon e le descrizioni fuorvianti di questi contenuti ingannano gli algoritmi. Così, video apertamente volgari vengono proposti come “video educativi” o “musica per bambini”.
Un’anomalia? Non proprio. Questi video non sfuggono ai filtri perché troppo complessi o subdoli. Sfuggono perché rientrano perfettamente nei limiti dell’ingenuità percepita. Un cartone animato, con colori accesi e un jingle orecchiabile, è da sempre associato all’innocenza.
Ma questa associazione è diventata una vulnerabilità. L’intelligenza artificiale, addestrata su miliardi di esempi, finisce per confondere l’estetica dell’infanzia con i suoi contenuti. È un errore di contesto, ma anche di paradigma: l’algoritmo non “capisce” (e questo è un bene), generalizza. E in questo caso, generalizza male.
Il punto critico, però, non è solo tecnico. È culturale. La fiducia cieca nella tecnologia ha spinto molti genitori a delegare completamente la supervisione dei contenuti. Ma un’app non è una babysitter e l’intelligenza artificiale, per quanto sofisticata, non è in grado di sostituire il giudizio umano, soprattutto quando la manipolazione dei segnali digitali è così ben orchestrata.
E qui entra un altro nodo centrale: la progressiva deresponsabilizzazione degli adulti. L’idea che basti un’app per tutelare i più piccoli ha costruito un’illusione rassicurante, che però sottrae tempo e attenzione a un’educazione digitale consapevole. Un filtro algoritmico può essere uno strumento, ma non può sostituire una cultura della vigilanza.
Quello che emerge, in superficie, è anche un cambiamento nel modo in cui i bambini entrano in contatto con la realtà. Video come quelli dei brainrot meme non sono solo disturbanti: veicolano un’idea distorta di linguaggio, empatia e ironia. Le bestemmie vengono ridicolizzate, i riferimenti a guerre reali vengono caricaturizzati, l’assurdo viene normalizzato.