“Adpocalypse” è il termine che è stato dato al fenomeno che in questi ultimi mesi ha mandato nel panico numerosi youtuber. Ma di che cosa si tratta esattamente? Per poterlo capire, dobbiamo andare alle (presunte) radici del problema.
Se in televisione le aziende pagano per mostrare un loro spot tra il primo e il secondo tempo di un buon film o nel bel mezzo di un programma a premi, non potranno mai sapere se in quel momento gli spettatori stiano effettivamente prestando attenzione allo spot. Non è nemmeno detto che questo sia di loro interesse. Su Youtube, invece, il procedimento è un po’ differente. Le pubblicità, che di solito compaiono all’inizio o alla fine di un video, non sono influenzate dal video stesso, ma dall’utente che lo sta visualizzando. Per esempio un adolescente si ritroverà pubblicità di scarpe, videogiochi e deodoranti, mentre un adulto potrebbe visualizzare pubblicità di macchine. Ciò è reso possibile grazie ad algoritmi che in base al canale dell’utente, o in alternativa, in base ai contenuti già visti, pubblicizza dati prodotti a dati utenti. Il problema nasce nel momento in cui una pubblicità di cereali viene anteposta a un video dove sono presenti immagini di terrorismo. Così facendo, secondo l’utente medio (e disinformato) quella azienda supporterebbe certi comportamenti. Per passare a un esempio concreto e a quello più eclatante, tempo fa uno youtuber inglese pubblicò un video in cui, volendo dimostrare come i giubbotti antiproiettile siano inefficaci contro oggetti affilati come lame, cominciò a scagliarsi contro uno di questi con un pugnale, dimostrando di fatto la sua ipotesi. Ma essendo su internet, il video è stato portato fuori contesto da testate inglesi e americane, che l’hanno fatto passare per “video incitamento alla violenza contro i poliziotti”. In particolare, è stato sottolineato come l’autore di tale video guadagnasse da quel contenuto, con le pubblicità che compaiono CASUALMENTE nel video. Il passo fu breve. Cominciò a diffondersi uno screenshot che mostrava la pubblicità di Netflix prima del video. Da quel momento grandi aziende di tutto il mondo che tramite Youtube potevano farsi pubblicità tra persone di tutte le età hanno fatto un passo indietro. A meno che la nota piattaforma non avesse risolto il problema, queste avrebbero ripiegato per altre soluzioni pubblicitarie. Così facendo davanti a Youtube si ponevano due problemi: trovare un modo per riempire questa “lacuna economica” e dividere i video in due categorie, una con contenuti adatti a tutti (quindi pubblicizzati normalmente) e una con contenuti non adatti ai minorenni (molto meno pubblicizzati). Per poterli risolvere, il sito ha trovato un’ unica soluzione: Diminuire gli introiti degli youtuber inserendo alcuni loro video nella “Modalità con restrizioni”. Ma che cos’è la modalità con restrizioni? E’ come un contenitore in cui sono contenuti i video adatti a tutte le fasce d’età. Questi video possono essere monetizzati normalmente dagli utenti che li producono, e pertanto gli garantiscono degli introiti pari a quelli di sempre. I video esclusi da questa modalità vengono monetizzati estremamente di meno, avendo un rendimento economico pari a un decimo dei video non ristretti. Non potendo un essere umano (o un qualsiasi gruppo di persone) controllare uno ad uno i video caricati sulla piattaforma ogni giorno, il lavoro di selezione è lasciato a un robot, per la precisione un algoritmo. Il vero problema? Non rientrano nella fascia protetta tutti quei video che contengono volgarità, atti di violenza, terrorismo, contenuti sessualmente espliciti, guerra, morte e tanti altri.
Tra questi vari criteri ce n’è uno che è stato particolarmente criticato da ogni “Contents Creator” della piattaforma: le volgarità, o le cosiddette “parolacce”. Qualsiasi youtuber (o almeno nove su dieci) pronuncia in continuazione parole volgari all’interno dei suoi video, è una cosa che c’è sempre stata, e per quanto criticabile sia, è ridicolo pensare che qualcuno esclami “per dindirindina!” al fallimento dell’ultimo livello di un gioco. I termini volgari sono ormai accettati da tutti gli utenti e fanno parte dell’intrattenimento della piattaforma, ma adesso lo stesso Youtube viene a negare uno dei principali fattori di intrattenimento e quindi di guadagno per se stesso. Non solo, perché se è pur vero che alcuni genitori potrebbero gridare al miracolo sapendo che finalmente potranno controllare meglio i propri figli, beh, mi dispiace deluderli, ma non è così. Quei due sul server (noti youtuber italiani) hanno voluto mettere alla prova questo nuovo algoritmo, dimostrando di fatto che anche un video pieno solamente di volgarità e bestemmie potrebbe passare nella modalità con restrizione, mentre un video informativo sul perché ci sia così tanto odio sul web verso gli youtuber, spiegato in maniera accurata, senza volgarità, ma semplicemente con una persona che parla davanti a una videocamera, non sia passato in questa modalità. La causa? Si presume la camicia rossa della persona presente sullo schermo, dato che Youtube ha rilevato “contenuti sessualmente espliciti” in quel video (il colore rosso potrebbe essere stato facilmente ricondotto al sangue). Non solo, ma qualsiasi video che descrivesse in maniera oggettiva e a puro titolo informativo un argomento adulto, come la guerra o l’Isis, verrebbe negato a un minorenne, impedendogli quindi di informarsi su una realtà che lo circonda. Molti video contenenti volgarità, violenza, minacce di morte etc.. sono passati in questa modalità. Era un risultato prevedibile, dato che dietro alla selezione non c’è un essere umano ma una macchina, che non può far altro che analizzare l’audio del video (piccola parentesi, il robot potrebbe ripiegare, in caso di incomprensione, sui sottotitoli generati automaticamente, che sappiamo però essere la maggior parte delle volta sbagliati e completamente fuori contesto. In poche parole, la macchina potrebbe rilevare una parolaccia che non c’è), il video stesso (in particolare i colori, come detto prima), il titolo e la descrizione. Ma è ovvio che un computer non potrà mai selezionare oggettivamente un video da un altro. E siccome la causa della tragedia sono proprio le mancate pubblicità il nome che è stato dato a questo fenomeno è Adpocalypse, da Ad (pubblicità) + Apocalypse (apocalisse). E’ per questi motivi che questo algoritmo risulta, da ogni punto di vista, indifendibile. Molti youtuber italiani di grande importanza hanno trattato di questo argomento, come Luke4316, Favij, Marco Merrino, Breaking Italy, Victorlaszlo88, GaBBoDSQ, Zeb89, PlayerInside, Livio Marcone, Markus Kron, Yotobi e gli stessi Quei due sul server. Alcuni pessimisti la ritengono la fine di Youtube, mentre altri non ci vedono nessun pericolo, dato che l’algoritmo che regola i video viene aggiornato di anno in anno, e che questa modalità è ancora in fase sperimentale. Altri ancora hanno affermato che grazie a questa apocalisse si distingueranno finalmente le persone che hanno scelto di entrare nella piattaforma per passione e chi per soldi. Tesi non del tutto sbagliata, dato che in molti si stanno spostando su altri siti che garantiscono buoni introiti, come ad esempio Twitch. Ad altri non fa differenza, visto che Youtube non è un’attività primaria per loro.
Per quanto ognuno possa avere le sue idee, bisogna ricordare una cosa: è impensabile che un attuale ventenne si ritroverà ancora a cinquant’anni a portare gameplay di un qualsiasi gioco sul suo canale. Youtube è sicuramente una bella esperienza, ma non può essere considerata come un lavoro che possa durare per sempre, anche se fino ad ora ha fatto guadagnare cifre elevate a molti giovani. Niente è eterno, e forse questo potrebbe essere il momento non che determinerà la fine del sito, ma che lo rinnoverà. Stiamo a vedere.