Negli ultimi tempi molti utenti hanno segnalato la comparsa inaspettata di video estremamente violenti (cosiddetti contenuti gore) nel proprio Feed di Instagram o nella sezione Reels.
Negli ultimi tempi molti utenti hanno segnalato la comparsa inaspettata di video estremamente violenti (cosiddetti contenuti gore) nel proprio Feed di Instagram o nella sezione Reels. Alcuni si sono trovati il feed “invaso” da video di corpi feriti e mutilati, torture o scene cruente – spesso pubblicati da account sconosciuti. Casi di incidenti stradali, sparatorie o persino uccisioni di animali sono stati riportati come contenuti suggeriti in modo casuale, anche da parte di persone che non seguivano profili legati a tali temi. Secondo un creator di meme attivo sulla piattaforma, “se apro Instagram e faccio scroll per cinque secondi, c’è una probabilità del 50% di vedere un post cruento da un account meme”, ad esempio video di decapitazioni o bambini investiti da auto, usati da certe pagine per attirare pubblico.
In situazioni normali questi contenuti rappresentano una quota minoritaria di ciò che circola su Instagram; Meta ha dichiarato che i video violenti costituiscono solo “una piccola frazione del totale delle visualizzazioni” sulla piattaforma. Tuttavia, si sono verificati eventi anomali in cui tali filmati espliciti hanno colpito un gran numero di persone contemporaneamente. Ad esempio, il 26 febbraio 2025 milioni di utenti in tutto il mondo si sono visti improvvisamente sommersi da reel estremamente espliciti (violenze sessuali, omicidi, gravi lesioni, ecc.) uno dopo l’altro. Numerose testimonianze su X (Twitter) e Reddit descrivono feed dei Reels “floodati” da contenuti shock, nonostante gli utenti avessero impostato il massimo livello di filtro per i contenuti sensibili. Questo fenomeno era già accaduto esattamente due anni prima, il 26 febbraio 2023, quando molti videro comparire video di sparatorie e torture senza aver mai interagito con contenuti simili in precedenza. La coincidenza ha fatto ipotizzare un bug ricorrente dell’algoritmo, dato che il problema si è presentato lo stesso giorno a distanza di due anni.

Il ruolo dell’algoritmo e le falle nella moderazione
L’algoritmo di Instagram gioca un ruolo cruciale nel determinare questi episodi. Instagram ha puntato molto sul formato Reels (video brevi) fin dal suo lancio nel 2020, orientando l’algoritmo a spingere questo tipo di contenuti per competere con TikTok. Questa enfasi ha creato un terreno fertile per exploit: alcune pagine di meme hanno scoperto che pubblicare contenuti estremi aumenta drasticamente l’engagement (commenti, condivisioni, tempo di visualizzazione) e quindi la portata dei loro post. Come ha osservato la creatrice di meme Liz Hagelthorn, l’algoritmo “sembra creato per favorire questi video: più è estremo il contenuto e più è ottimizzato per l’algoritmo. Se le persone non approvano o ne sono turbate, **in media ci passano comunque l’8-10% di tempo in più”.*
Sul fronte della moderazione, queste dinamiche hanno messo in luce diverse falle e limiti. Meta impone ufficialmente regole severe sui contenuti violenti, ma i video gore riescono comunque a trovare spazio, spesso sfruttando nuove tattiche per eludere i controlli automatici. In pratica, non tutto viene filtrato: spesso, soprattutto nella sezione Reels, si incontrano video che dovrebbero fermarsi nelle maglie della moderazione ma che riescono a passare. L’evento del febbraio 2025 – definito da Meta un “errore” tecnico – ha confermato che qualcosa nel sistema di raccomandazione è andato storto, mostrando improvvisamente a un vasto pubblico contenuti che normalmente sarebbero stati bloccati.

Le misure adottate da Instagram per contrastare i video violenti
- Policy e filtri sui contenuti: Instagram vieta espressamente la pubblicazione di contenuti estremamente violenti o macabri, ad esempio immagini di “smembramenti, interiora visibili o corpi carbonizzati”, e rimuove anche post che glorifichino la sofferenza di persone o animali.
- Moderazione automatica e umana: Meta utilizza un sistema di moderazione ibrido, con algoritmi di intelligenza artificiale per il rilevamento automatico e oltre 15.000 moderatori umani a livello globale per la revisione manuale.
- Interventi correttivi e aggiornamenti: Quando vengono rilevati problemi, Instagram interviene con correzioni tecniche e dichiarazioni pubbliche.
- Funzionalità aggiuntive per gli utenti: Meta ha annunciato una nuova opzione che consentirà agli utenti di resettare l’algoritmo e azzerare le raccomandazioni personalizzate.
Implicazioni psicologiche e sociali dell’esposizione a contenuti violenti
L’esposizione ripetuta a video violenti e immagini scioccanti può avere serie ripercussioni psicologiche. Studi di psicologia hanno dimostrato che assistere, tramite i media, a scene di violenza estrema può provocare sintomi simili al disturbo da stress post-traumatico (PTSD). Nel lungo termine, gli esperti avvertono del rischio di desensibilizzazione emotiva, riducendo empatia e compassione verso le vittime rappresentate. Questa tendenza può persino contribuire a un aumento dei comportamenti aggressivi o antisociali.

Le implicazioni sociali sono altrettanto significative. C’è il rischio di normalizzare la violenza tra i più giovani e di alimentare la ricerca di visibilità a ogni costo da parte dei creator, spinti a pubblicare contenuti estremi per ottenere più engagement.
Segnalazioni degli utenti e dichiarazioni ufficiali di Instagram/Meta
Le denunce pubbliche degli utenti hanno costretto Meta a fornire spiegazioni. In reazione all’episodio più recente, un portavoce ha dichiarato: “Abbiamo risolto un errore che ha causato la visualizzazione di contenuti che non avrebbero dovuto essere raccomandati nei Reels di alcuni utenti. Ci scusiamo per l’inconveniente”. Meta ha ribadito che tali video violenti violano le sue linee guida, affermando di essere costantemente al lavoro per migliorare la moderazione e la sicurezza sulla piattaforma.
