forum

Challenge e video p...
 
Notifiche
Cancella tutti

Challenge e video pericolosi online: sono vietati dalla legge?

1 Post
1 Utenti
0 Reactions
100 Visualizzazioni
(@raffaella-mari)
Post: 568
Noble Member Registered
Topic starter
 

La diffusione di video pericolosi su YouTube e sui social solleva preoccupazioni sulla mancanza di regole e autorità di controllo. Non esiste un’autorità specifica e la decisione sui contenuti dannosi è a discrezione delle piattaforme stesse.  

L’ambizione di diventare popolari e conquistare maggiori fette di pubblico sui social e sulle varie piattaforme sta portando i ragazzi a realizzare challenge e video pericolosi online. Ma cosa dice la legge a riguardo? È vietata la pubblicazione e la diffusione di materiale del genere? Esiste uno specifico reato?

La verità è che non esiste una norma unitaria in tutta l’Unione Europea e tutto è rimesso agli Stati Membri che, in questo, fanno un po’ come gli pare. Ad oggi ci affidiamo – con non pochi rischi – alle condizioni generali di contratto che gli utenti sottoscrivono con YouTube e i social network, i quali dovrebbero già operare un controllo attraverso i loro algoritmi. Ma non c’è da fidarsi visto che sono soggetti “interessati” alla viralità. Dunque, a parte i casi più gravi, nei quali si può arrivare alla disattivazione del canale, ad oggi non c’è alcuna garanzia che la pubblicazione e la diffusione di challenge pericolose possa avere conseguenze penali.

Quali sono le conseguenze di questa situazione? Cosa prevede la direttiva Ue 2000/31 sul commercio elettronico? Come si può bilanciare la libertà di impresa e la tutela dei diritti fondamentali? Questo articolo esplorerà il tema delle challenge e dei video pericolosi online, analizzando la mancanza di regole e autorità di controllo, le implicazioni legali e la necessità di un equilibrio adeguato.

La mancanza di regole e autorità di controllo

Le piattaforme di condivisione dei contenuti online impongono divieti sulla pubblicazione di video pericolosi, ma non esiste un’autorità garante specificatamente responsabile del controllo. La decisione su cosa sia considerato dannoso per gli utenti è a discrezione delle piattaforme stesse. Questa situazione ha portato alla diffusione di video estremi che generano traffico e introiti pubblicitari, ma anche all’emulazione di condotte pericolose.

Alcuni esempi di challenge e video pericolosi

Tre recedenti fatti di cronaca hanno sporcato di sangue le piattaforme video. E quasi sempre si tratta di giovani.

Il 14 giugno, a Roma, un bambino di 5 anni è morto investito da un gruppo di youtuber poco più che ventenni (The Borderline) che stavano compiendo una sfida social: restare a bordo di una Lamborghini presa a noleggio per 50 ore di fila.

Sempre il 14 giugno scorso, Yahya Hkimi, 18 anni, è annegato nel fiume Secchia a Marzaglia di Modena mentre un amico minorenne lo stava riprendendo poiché Yahya gli aveva chiesto di filmarlo mentre faceva finta di essere trasportato via dalla corrente.

Il 12 aprile, in Ohio (Stati Uniti), è morto un ragazzo di 13 anni dopo una sfida di ingerimento di antistaminici su TikTok. La tragedia riguarda una challenge che invita ad assumere 12-14 pasticche di un antistaminico da banco per avere allucinazioni. Il ragazzo ha iniziato ad avere crisi epilettiche subito dopo aver ingerito il farmaco, mentre un amico lo stava filmando.

Una delle challenge più pericolose e note è quella finita sulla cronaca con il nome di Blue Whale, ossia la balena blu, consistente nell’obbedire a una serie di comandi sempre più pericolosi: si va dal compimento di atti di autolesionismo fino ad arrivare addirittura al suicidio vero e proprio.

L’assenza di norme ad hoc e responsabilità diretta

Attualmente, non esistono norme specifiche che obblighino le piattaforme a effettuare un controllo preventivo dei contenuti o ad assumersi una responsabilità diretta automatica. Le sfide online sono un esempio di questo problema, dove l’inserimento di avvertenze è stato considerato sufficiente per escludere l’intenzione di agevolare comportamenti autolesionisti. Questa mancanza di norme specifiche crea una disparità di trattamento tra i contenuti digitali e i media tradizionali.

Cosa dice la direttiva Ue 2000/31?

La direttiva Ue 2000/31 sul commercio elettronico prevede un sistema di notifiche complesso per segnalare video pericolosi o diffamatori alle piattaforme. Tuttavia, gli Stati membri non possono limitare la libera circolazione dei servizi della società dell’informazione provenienti da altri Stati membri, salvo specifiche deroghe. Il legislatore avrebbe dovuto regolamentare il delicato equilibrio tra la libertà di impresa e la tutela dei diritti fondamentali, ma ciò è stato rimesso alle norme esistenti, creando vuoti di tutela.

La situazione in Italia e l’istigazione al suicidio

In Italia la situazione è altrettanto complessa. Ne abbiamo già parlato in Challenge pericolosa in rete: è reato?

Il possibile inquadramento della condotta nel reato di istigazione al suicidio è spesso difficile. La norma infatti punisce solo chi induce una persona a suicidarsi solo a patto che dalla condotta derivi la morte della vittima o delle lesioni gravissime. Dunque, se non si verificano tali eventi non c’è alcun reato. Così come non c’è alcun reato se la condotta è solo pericolosa ma non rivolta all’autolesionismo.

Una seconda possibilità è quella di invocare il reato di istigazione a delinquere. Ma in questo caso è necessario che il video istighi gli utenti a violare una legge ben definita (ad esempio assumere sostanze vietate). In questo caso la challenge in rete che istiga alla commissione di uno o più reati è penalmente rilevante anche se nessuno dovesse seguire l’invito criminoso. Tuttavia chi, al contrario, pone solo condotte pericolose (attraversare un fiume, nuotare col mare agitato) non commette tale reato.

Prospettive di intervento a livello nazionale ed europeo

È necessario definire in maniera puntuale e precisa le deroghe che consentano al legislatore nazionale di tutelare l’ordine pubblico e i minori da attacchi provenienti dalle piattaforme. Dovrebbe spettare infatti agli Stati membri, e non direttamente alle piattaforme, regolamentare il sistema di monitoraggio dei contenuti che possono violare l’ordine pubblico interno o i diritti dei minorenni fruitori di tali servizi.

È in parte ciò che è stato introdotto col Digital Services Act che dal prossimo anno imporrà nuove regole di sistema per le piattaforme.

Una concertazione a livello europeo potrebbe definire i poteri di intervento del legislatore nazionale nei casi di contenuti che destano allarme sociale. L’adesione spontanea di Google Italy al sistema di autodisciplina pubblicitaria è un primo passo, ma occorre un’impostazione normativa più ampia per evitare la permanenza online di contenuti che minacciano la sicurezza collettiva.

 
Pubblicato : 27 Giugno 2023 17:00