Moderazione di contenuti ed enti di controllo: dopo i social, è l’ora dei podcast
Spotify ha annunciato la creazione del primo Safety Advisory Council al mondo nel settore delle piattaforme di contenuti audio, non a caso a distanza di pochi giorni dall’annuncio di nuovi e più ambiziosi obiettivi di crescita dell’azienda guidata da Daniel Ek: rimangono insoluti, tuttavia, gli stessi problemi che hanno caratterizzato fin qui gli organismi di controllo e di consulenza simili a quello appena ideato.
Poco meno di una ventina: è il numero di esperti e organizzazioni coinvolte da Spotify nella creazione del primo Safety Advisory Council nella storia della piattaforma e, più in generale, nella storia delle aziende specializzate in contenuti audio online. Il Safety Advisory Council, che si riunirà periodicamente nel corso dell’anno senza scadenze né tempistiche definite, avrà l’obiettivo di aiutare i dipendenti diretti e i responsabili di Spotify nella definizione e revisione delle regole di pubblicazione dei contenuti sulla piattaforma, senza tuttavia avere alcun potere di intervento nelle scelte di moderazione compiute dall’azienda e riguardanti podcast e canzoni, giornalisti e cantanti, divulgatori e artisti impegnati nella promozione delle proprie opere.
Nasce lo Spotify Safety Advisory Council, in concomitanza con l’annuncio dei nuovi piani di crescita e sviluppo dell’azienda guidata da Daniel Ek
L’annuncio della creazione del Safety Advisory Council giunge a pochi giorni di distanza dall’annuncio di nuovi e ambiziosi obiettivi da parte di Spotify direttamente per bocca del CEO, Daniel Ek: secondo quanto si legge su AGI i piani dell’azienda prevedono di superare il primo miliardo di utenti e i primi cinquanta milioni di creatori di contenuti entro il 2030, decuplicando i ricavi rispetto al 2021. Obiettivi da raggiungere, sempre secondo quanto affermato dall’azienda stessa alla stampa, anche grazie alla crescita dei guadagni dalla pubblicità associata ai podcast, dove Spotify dichiara di aver investito oltre un miliardo di euro e di aver generato 200 milioni di ricavi nel corso dell’ultimo anno, con oltre quattro milioni di podcast pubblicati sulla propria piattaforma.
La creazione di un consiglio di esperti “di sicurezza” esterno all’azienda, ma generosamente ideato, organizzato e con ogni probabilità finanziato da quest’ultima, deve essere quindi letto alla luce delle prospettive ottimistiche di crescita esponenziale dei contenuti e dei ricavi generati dalle inserzioni pubblicitarie associate ai podcast e alle playlist più popolari sulla piattaforma, che porterà con sé inevitabili scelte dal punto di vista della moderazione di contenuti: quali podcast potranno essere pubblicati e quali no, quali temi potranno essere approfonditi e quali no, quali podcast e artisti potranno accedere alla condivisione dei ricavi dalle inserzioni pubblicitarie e quali invece saranno “demonetizzati“? Domande, domande e ancora domande a cui l’azienda spera di trovare nel prossimo futuro una risposta nei consigli e nelle raccomandazioni degli esperti del nuovo Safety Advisory Council.
Il sospetto, che da qui ai prossimi anni potrebbe essere smentito o trasformarsi in qualcosa di ben più reale, è che Spotify stia cercando di nascondere ritardi, omissioni e carenze nella gestione della moderazione di contenuti dietro la “foglia di fico” del nuovo organismo di consulenza, senza assumersi fino in fondo la responsabilità delle proprie scelte e strategie editoriali. Il Safety Advisory Council, per come fino ad oggi è stato comunicato all’esterno, sembra essere nient’altro che l’ennesima copia di organismi analoghi realizzati dai social media: una soluzione non originale e per di più tardiva, introdotta da Spotify solo dopo la durissima contestazione portata avanti da centinaia di scienziati, dottori e divulgatori che all’inizio di quest’anno hanno accusato pubblicamente l’azienda di promuovere e finanziare il seguitissimo podcast di Joe Rogan contenente informazioni false e teorie del complotto riguardanti la pandemia. Scontro risolto, almeno temporaneamente, con la censura di oltre 100 episodi del suddetto podcast proprio da parte di Spotify.
Prima di Spotify, anche i social hanno provato a condividere il peso della responsabilità di scelte editoriali difficili con esperti e organizzazioni esterne
Il Safety Advisory Council, in questo contesto, si inserisce nella tendenza di lungo periodo di creazione di comitati e tribunali “esterni” alle piattaforme digitali per la revisione costante delle regole di pubblicazione dei contenuti e la consulenza nella gestione dei casi più problematici. Dal Trust and Safety Council di Twitter al ben più conosciuto Oversight Board di Facebook, non c’è piattaforma di una qualche importanza che non abbia provato nel corso degli ultimi anni a condividere la responsabilità della scelta – su ciò che è possibile o non è possibile pubblicare – con qualche esperto o organizzazione esterna: se il nuovo “Council” di Spotify non dispone degli stessi poteri di un organismo ben più noto come l’Oversight Board (che può approvare o rigettare le decisioni prese in passato dai moderatori di Facebook) permane la condizione di totale dipendenza di tutte queste tipologie di organismi esterni al benvolere e ai finanziamenti delle stesse aziende di cui dovrebbero giudicare e orientare l’operato.
Quanti moderatori di contenuti ha Spotify? Quante sono le risorse destinate alla moderazione da parte dell’azienda? Quanti podcast, quante canzoni vengono rimosse ogni giorno? Quante segnalazioni vengono inviate dagli utenti, e quante ottengono risposta? Chi decide, preventivamente e operativamente, che cosa può essere o non essere pubblicato sulla piattaforma? Le domande, seppur scontate, mancano da sempre di una risposta verificabile da parte di soggetti esterni, sia per quanto riguarda Spotify sia per quanto riguarda tutte le piattaforme simili a quest’ultima: in questo senso, la creazione di un Safety Advisory Council sembra essere una scelta tanto tardiva quanto insufficiente rispetto all’enormità dei problemi passati, presenti e futuri. Se i continui scandali e le polemiche riguardanti la moderazione di contenuti sui social media hanno insegnato qualcosa, infatti, è che i casi come quello di Joe Rogan sono sempre più di quelli contemplati nelle più ottimistiche previsioni, e che quando iniziano a confluire su piattaforme e creatori di contenuti i soldi degli inserzionisti pubblicitari c’è sempre qualcuno – inserzionisti concorrenti, ascoltatori contrariati, giornalisti – interessato a far emergere i problemi finora nascosti.
Spotify è impegnata da anni nella moderazione di contenuti: che si tratti di canzoni o di podcast, l’azienda agisce come un vero e proprio editore
Da ricordare, infatti, come il caso di Joe Rogan sia solo l’ultimo di una serie ininterrotta di contrasti tra Spotify e gli autori di podcast e artisti presenti sulla piattaforma: dalla scelta di rimuovere le canzoni contenenti espliciti incitamenti alla violenza (poi ripudiata dopo vigorose proteste da parte del pubblico) a quella di rimuovere centinaia di migliaia di canzoni di artisti indie accusati di aver manipolato le performance di ascolto dei propri brani, Spotify compie da anni attività di selezione editoriale vera e propria senza ricevere tuttavia le stesse attenzioni e la stessa quantità di critiche rivolte a piattaforme come Facebook, Twitter e affini. Esattamente come queste ultime, l’azienda guidata da Daniel Ek agisce e si comporta alla stregua di un editore, decidendo arbitrariamente quali contenuti e quali autori possono essere presenti e quali no, a quali contenuti dare visibilità nelle proprie playlist e quali no, con quali podcast condividere i ricavi dalla pubblicità e quali “demonetizzare” per violazione delle regole.
Organismi come il Safety Advisor Council, in questo contesto, appaiono essere tanto più depotenziati e inefficaci nel lungo periodo quanto più essi dipendono direttamente dall’azienda nella definizione delle regole di ingaggio del proprio ambito di intervento e soprattutto nell’accesso ai dati relativi ai contenuti rimossi e non rimossi, segnalati e non revisionati, che consentirebbero di elaborare una visione quanto più possibile neutrale e oggettiva delle reali criticità che affliggono la piattaforma e i suoi stessi utenti. Stupisce, a distanza di anni, come ancora oggi individui e organizzazioni dotate di autorevolezza e di una reputazione faticosamente guadagnata si prestino a svolgere un ruolo da foglia di fico di problemi per cui servirebbero risorse quantitative e qualitative ben più ingenti di una “ventina” di individui e organizzazioni che non hanno – ripeto – alcun potere di intervento, alcuna possibilità di costringere l’azienda a essere più trasparente, coerente e scrupolosa nelle sue decisioni editoriali, e chiamati a dare consigli e indicazioni di cui non potranno mai misurare a fondo la reale implementazione ed efficacia.
In attesa che il nuovo organismo di consulenza entri nella fase di piena operatività, in attesa che nuove leggi e regolamenti nell’ambito della moderazione di contenuti vengano approvati e introdotti su scala nazionale, comunitaria e internazionale, in attesa che le aziende come Spotify inizino ad assumersi le proprie responsabilità e ad adottare un approccio quanto più possibile trasparente in quest’ambito, per rispetto ai propri clienti, creatori di contenuti, inserzionisti, investitori e altri stakeholder, il consiglio – rivolto prima di tutto inserzionisti e creatori di contenuti, siano essi cantanti o podcaster – è lo stesso: diffidare di un’azienda che non ha mai condiviso i dati di moderazione con l’esterno, che ha cambiato più volte le sue stesse regole di pubblicazione e che ancora oggi dichiara di servirsi di un “mix” imprecisato di moderatori e tecnologie senza mai chiarire fino in fondo dove si collochi esattamente il confine tra censura automatica e standardizzata e censura manuale e selettiva, da sempre imprevedibile e arbitraria.