Ogni minuto di ogni giorno 500 ore di video sono caricati su YouTube, 2,5 milioni di post scritti su Facebook, 450,000 tweet su Twitter. Questi sono i numeri che affollano lo spazio delle piattaforme social, trafficate da una comunità di più di tre miliardi di persone. Tanti siamo ad essere ’connessi.‘

 

THE CLEANERS, presentato all’ultimo Sundance Festival, è un documentario notevole, ben equilibrato, di forte impatto nello snocciolare gli enormi e controversi aspetti legati ai social network: privacy, libertà di espressione, accountability.

 

Moritz Riesewieck e Hans Block ci dicono molte cose, forse di più di quanto siamo in grado di metabolizzare in poco più di ottanta minuti. Primo, le piattaforme social non sono agorà virtuali, luoghi dove, a dirla alla Mark Zuckenberg, “People can share anything with anyone.”

 

In teoria (ma solo in teoria) sui social può finirci di tutto, senza responsabilità alcuna di Facebook, Twitter o Google, che continuano ad atteggiarsi a piattaforme tecnologiche, provider di contenuti prodotti da altri. Dopo Trump e Brexit questa linea trincea non regge più, la demarcazione tra aziende tecnologiche e aziende editoriali è troppo sfocata.

I contenuti diffusi non sono i migliori ma i più “virali”, e questo ci porta dritto al secondo tema. Le piattaforme social hanno una preciso business model: fare profitto suscitando interesse e partecipazione. Gli algoritmi fanno il resto, selezionano target e contenuti.

 

 

Non tutto quello che è caricato rimane online. Ci pensano i sono i content moderator a controllare la Rete, a renderla più sicura (e meno democratica) di quanto possiamo immaginare. Migliaia di ragazzi e ragazze che per 10-12 ore al giorno ripuliscono lo ‘spazio social’ da raduni neo nazisti, pedopornografia, decapitazioni, salvo il suicidio in diretta perché, racconta uno di loro, se il video è in real-time bisogna aspettare che finisca prima di poterlo eliminare.

 

Chi controlla i censori della rete? Quali sono le loro linee editoriali? A chi rispondono del loro operato? Queste e altre questioni emergono man mano che ci addentriamo nella visione. Alcuni di loro hanno coraggiosamente deciso di mostrare il loro volto e raccontare il loro mestiere davanti alla videocamera di Moritz Riesewieck e Hans Block. 25.000 immagini, questo è il loro daily target. Appena il 3% del lavoro di ognuno è esaminato dai team leader.

 

 

I Cleaners non sono dipendenti delle grandi aziende della Silicon Valley ma lavorano nella squallida periferia di Manila. Forza lavoro in outsourcing, sempre più frequente tra le società tecnologiche. Mediamente istruiti e pagati pochissimo, molto meno rispetto ai colleghi americani. Tutto intorno a loro, per un bizzarro ossimoro visivo, cumuli di spazzatura su cui altri giovani rimestano per guadagnarsi da vivere.

 

“È l’unico lavoro per avere un salario decente”, racconta uno di loro, “il mondo dovrebbe sapere che ci siamo, che c’è qualcuno che ripulisce i social media. Facciamo del nostro meglio per milioni di persone, il nostro obiettivo è mantenere le piattaforme sociali sicure il più possibile, per proteggere la gente, noi siamo come poliziotti.”

 

Si sente un pò come Rodrigo Duterte, il presidente del terrore, della guerra alla droga, che fatto uccidere, torturare, sparire, arbitrariamente, circa settemila persone tra tossicodipendenti e spacciatori. Ma non tutti lo vivono cosi il mestiere di content moderator. C’è chi vuole smettere, le immagini di tanta bestialità umana si vedono in rete sono spesso insopportabilmente orrende.

 

Da Manila agli Stati Uniti, alla vera big issue che racchiude tutte le altre: l’impatto politico che le piattaforme hanno sulle dinamiche globali. 

 

Dalle elezioni di Donald Trump nel 2016, alle repressioni di Recep Erdogan, al massacro dei Rohingya in Myanmar, ai video dell’ISIS. Quello che c’è (o non c’è) in Rete condiziona la qualificazione politica di quanto accade nel mondo, di un fatto, una notizia, un evento. Da aspetti di drammatica attualità, come i bombardamenti sulla Siria e le efferatezze del Califfato, ad alcune ilarità. Una su tutte, il corpo maschile nudo con la testa di Donald Trump. Troppo piccolo il pene per uno che promette di rendere l’America ‘Great Again’. Troppo offensivo per la personalità di un presidente. E cosi il disegno della giovane artista Illma Gore, 50 milioni di condivisioni sui social, è stato rimosso dalla Rete.

 

 

C’è molto di più degli attributi del Presidente degli Stati Uniti e della pornografia a finire sotto la scure dei censori dei social. Dinanzi alla Commissione del Senato americano che indaga sulle interferenze russe nelle elezioni del 2016, Colin Stretch vicepresidente e consulente legale di Facebook, ammette, dopo qualche pudica esitazione, che sì in effetti l’azienda ha sviluppato un sistema di geo-blocking congegnato per rendere invisibili in un dato Paese contenuti ritenuti illegali dal suo governo. Nella maggior parte dei casi, continua Strech, arrossendo, “[..] si tratta di contenuti che non hanno nulla a che vedere con questioni  politiche.”

 

Non la pensa ovviamente cosi Yaman Akdeniz, professore di diritto a Istanbul.  “Facebook rimuove tutto quello che il governo turco gli chiede di rimuovere, soprattutto critiche politiche.” In Turchia la cesura si fa autocensura. “Non mi piace questa soluzione, ma l’alternativa era essere completamente oscurati”, ammette con un certo imbarazzo Nicole Wong, ex policy maker di Google e Twitter. Nel 2004 aveva detto “[…] dobbiamo decidere cosa non può essere visto nelle piattaforme, c’è una scelta in questo. E la scelta è dettata dal contesto […].” 

 

Il contesto in questo caso ha la faccia di Erdogan e il corpo della Turchia, un mercato da cui non si può essere tagliati fuori anche al prezzo di cancellare ‘propaganda terroristica’, il che, come fa notare il Senatore americano Lindsey Graham, significa inevitabilmente spegnere l’attenzione sulle vittime.

 

 

Abdulwahab Tahan della NGO Airwars lo conferma.

“Il mio lavoro è di raccogliere e archiviare  i video sugli attacchi aerei in Siria prima che scompaiano dalla Rete. Gli attivisti in Siria caricano tantissimo materiale, soprattutto video, su YouTube. Dopo che abbiamo archiviato i video, geolocalizziamo i dati [.. .], senza il nostro lavoro il regime avrebbe ancora più mano libera, nessuno lo sfiderebbe, ci sarebbero ancora più vittime civili. Questi video sono parte della guerra, sono prove per il futuro. Il problema è che molto spesso sono classificati come video dell’ISIS e quindi vengono cancellati da YouTube. Questo colpisce molte organizzazioni impegnate in Siria.” (Abdulwahab Tahan della NGO Airwars) 

 

In tutti i casi gli algoritmi sono assai più influenti dei giornalisti. David Kaye, Relatore speciale delle Nazioni Unite per la libertà di espressione non è ottimista: “[…] Le piattaforme social avranno sempre più potere nel decidere cosa possiamo o non possiamo vedere. Nel tempo avremo sempre meno informazioni disponibili, informazioni provocatorie e non dovremo meravigliarsi se la società sarà più povera.” 

 

Non ci rassicurano le testimonianze dei pezzi grossi di Facebook, Google e Twitter, ascoltati dalla Commissione di inchiesta del Senato americano su crimini e terrorismo, nell’ottobre del 2017. Tutti hanno detto di fare del loro meglio per proteggere le piattaforme da terroristi, jihadisti, estremisti di vario genere; tutti garantiscono di avere migliaia di persone che esaminano migliaia e migliaia di pagine per bloccare la diffusione di contenuti sediziosi ed evitare le interferenze di agenti stranieri nel processo democratico degli Stati Uniti. “Abbiamo dieci mila persone che lavorano per la sicurezza e investiremo ancora di più nel 2018.” (Colin Stretch)

 

Secondo Tristan Harris il famoso ex Google design ethicist, ‘uno che ha cercato di dare una coscienza alla Silicon Valley’, come lo ha definito l’Atlantic, le piattaforme sono indubbiamente programmate per provocare comportamenti e reazioni estreme.

 

“C’è un malinteso di base, ed  è pensare che la natura umana sia natura umana e la tecnologia sia tecnologia, cioè uno strumento neutrale. Questo non è vero perché la tecnologia ha pregiudizi, posizioni, obiettivi. Il suo obiettivo è attirare l’attenzione di quanta più gente possibile. Oltraggio, offese, violenza, insomma il male del mondo, vanno bene allo scopo, Facebook ne beneficia.”

 

 

Le  ultime scene di THE CLEANERS ci riportano da dove avevamo cominciato il nostro viaggio, nei sobborghi di Manila tra i cumuli di rifiuti. Qualcuno smetterà, qualcuno ammette di non essere più lo stesso da quando ha iniziato questo lavoro (“è come se un virus si fosse impossessato nel mio cervello”), qualcuno stringe i denti. Qualcuno non ce l’ha fatta, si è suicidato, inspiegabilmente, con una corda intorni al collo. Era specializzato nella censura di video di autolesionismo estremo.

 

Trailer