Approfondimento sul linciaggio di un professore del Tigray alla Bahir Dar University (BDU) ad Amhara e sull’incapacità di Facebook di prevenire il fomentare l’odio in Etiopia.
Un professore viene assassinato in Etiopia dopo che sono stati pubblicati da utenti messaggi online dannosi. Mark Zuckerberg in realtà voleva agire contro le bugie e l’incitamento all’odio e assicurarsi che la sua piattaforma non alimentasse più conflitti politici in tutto il mondo. Perché non ha funzionato?
Di Kerstin Kohlenberg
7 dic. 2022 / aggiornato 10 dic. 2022
Ogni omicidio ha il suo profumo. L’assassinio del professore etiope Meareg Amare odora di mango e gasolio. Meareg e sua moglie Nigist hanno piantato l’albero di mango dietro il cancello della loro casa. L’odore pesante e pungente del gasolio aleggia su quasi tutte le città dell’Etiopia , su Addis Abeba, la capitale con le sue strade congestionate, e su Bahir Dar, dove è avvenuto l’omicidio il 3 novembre 2021. È l’odore della rapida crescita di un paese povero. L’odore della libertà e della distruzione.Nigist Hailu era in chiesa quando è arrivata la chiamata. Un uomo sconosciuto era al telefono, dice, e le ha detto di non tornare a casa per nessun motivo, ma di rivolgersi alla polizia. Si è spaventata ed è subito scappata. Nessuno voleva dirle niente in questura, invece è stata portata a casa sua. Al cancello della proprietà, dice, si era già radunata una folla. “Poi ho visto Meareg. Era sdraiato davanti alla casa sotto l’albero di mango.” La bocca di suo marito era aperta.
Nigist in seguito apprese che i tre autori erano arrivati con un’auto e due motociclette. Tutti e tre indossavano l’uniforme delle forze speciali armate del governo locale. Gli hanno sparato, il professor Meareg Amare, alle gambe e alla schiena, poi è scomparso.
Nigist dice che è crollata, ha abbracciato il marito morto e ha cercato di chiudergli la bocca. Una sola persona della folla l’ha aiutata. Gli altri rimasero lì a guardare.
Il viaggio verso Nigist – in Etiopia, i nomi sono ciò che sono i cognomi nel nostro paese – conduce attraverso un traffico intenso fino ai margini di Addis. Passati caprai che guidano le loro mandrie dall’altra parte della strada mentre guardano i loro smartphone, oltre un gigantesco complesso di conchiglie per un’azienda high-tech cinese, fino a capannoni che vendono caffè. Nigist vive qui al terzo piano di un condominio perché non è più al sicuro nel suo paese d’origine. Aveva una grata di metallo messa davanti alla porta. Devi stare attento anche qui. La famiglia appartiene alla piccola etnia dei Tigrini, contro i quali il governo etiope è in guerra da due anni. È probabilmente il conflitto più mortale del nostro tempo: secondo le stime dell’Università di Gand, ne sono state vittime 500.000 persone. Da diverse settimane c’è una vaga speranza di pace. Le parti si sono impegnate a porre fine ai combattimenti. Ma per quanto riguarda l’odio?
Nigist chiude la porta e infila una coperta sopra la fessura nel pavimento. Nessuno dovrebbe sentire ciò che viene detto all’interno. Si sistema il tulle nero sui capelli. Ha 57 anni e i suoi capelli sono diventati grigi dall’omicidio del marito, dice. In soggiorno un divano ad angolo, un tavolo, una foto di Meareg alla parete. Poi niente. Una stanza come una sala d’attesa. C’è anche sua madre, loro due hanno preparato la colazione, lenticchie, focaccia, salse piccanti.
Nigist si fruga in tasca, come ogni terzo etiope ha uno smartphone. Un Samsung. Dopo l’omicidio, è stata chiamata su questo cellulare dallo sconosciuto, su questo cellulare ha salvato ciò che le restava del marito. Mostra le foto di un uomo alto, magro, dall’aria pensierosa in giacca e camicia, abbigliamento da professore universitario, le mani in tasca con disinvoltura. Un video la mostra mentre ride mentre cerca di convincerlo a ballare. In un altro, le canta dolcemente. Nigist ha le lacrime che gli rigano le guance mentre lo guarda. Il cellulare le salva la vita. Li collega tramite Facebookcon i suoi quattro figli, che ora sono tutti fuggiti all’estero, in Svezia, Francia e Stati Uniti. E li collega ad alcuni dei loro vecchi vicini di casa. Gli etiopi non sono mai stati così vicini. Mai prima d’ora erano stati così in disaccordo.
Prima che Meareg morisse all’età di 60 anni, è stato perseguitato su un account Facebook chiamato BDU STAFF. BDU sta per Bahir Dar University. Personale significa personale. L’account sembra una pagina ufficiale che l’università ha aperto per i suoi dipendenti, gente come Meareg, che ha lavorato lì per 16 anni. Prima come docente di chimica, poi come assistente alla cattedra, poco prima della sua morte gli fu assegnata una cattedra regolare. Tuttavia, BDU STAFF non pubblica solo informazioni quotidiane sulla vita del campus, successi accademici o sportivi, ma anche post entusiastici sulla guerra del governo contro i tigrini.
L’account ha molti lettori, 50.000 persone lo seguono. Il 9 ottobre 2021, quasi quattro settimane prima del delitto, è stata pubblicata una foto di Meareg con la didascalia: “Si chiama Professor Meareg Amare Abreha. È un Tigrayer”. Il post è lungo, l’autore anonimo afferma che Meareg ha combattuto a fianco del Fronte popolare di liberazione del Tigray contro le forze governative, dopodiché è fuggito negli Stati Uniti. Il giorno dopo, BDU STAFF pubblica un altro post su Meareg, sempre con una sua foto. Questa volta si dice che il professore abbia sottratto fondi all’università e li abbia usati per costruire la sua casa e acquistare varie auto.
Nei giorni successivi, alcuni dei suoi studenti scrivono nella colonna dei commenti sotto il post che Meareg è un bravo ragazzo, un grande insegnante, una brava persona. Ma la maggior parte dei commentatori chiede vendetta: “Cosa stai aspettando. Stai dormendo? Sei così imbarazzato, perché non hai ancora bevuto il suo sangue?”
Come dovrebbe essere regolamentato Facebook?
In nessun altro continente l’utilizzo di Internet sta crescendo così velocemente come in Africa . Un Paese come l’Etiopia, con i suoi 120 milioni di abitanti, la stragrande maggioranza dei quali non ha ancora accesso a Internet, deve apparire a una piattaforma come Facebook come un ideale mercato futuro. Nei paesi ricchi dell’Occidente Facebook ha smesso da tempo di crescere, quasi tutti hanno uno smartphone, quasi tutti hanno un account Facebook, e i giovani si stanno addirittura allontanando dalla piattaforma. In Africa, invece, la società madre di Facebook, Meta, sta posando 45.000 chilometri di cavo in tutto il continente per fornire Internet ad alta velocità a 18 paesi. Quante bugie, quante adescamenti porterà questo cavo in Africa?
Facebook ha imposto una sorta di regole della casa. Regole di comportamento, valide in tutto il mondo, per tutti i tre miliardi di utenti. L’odio, le minacce di morte, l’esaltazione della violenza, il razzismo, il sesso, le teorie del complotto o gli account falsi non sono consentiti. Se un contributo viola le regole della casa, dovrebbe essere fornito con un avviso o cancellato. In realtà abbastanza semplice. Eppure abbastanza complicato. A che punto la critica legittima diventa odio o razzismo? Quando inizierà la libertà di espressione sulla disinformazione o l’esaltazione della violenza? Ciò che scrive un politico dovrebbe essere trattato allo stesso modo di ciò che pubblica un comune cittadino? Quando è il momento poco prima che sia troppo tardi in una lotta di campo politico che devi intervenire?
Impossibile rispondere a tali domande in un insieme di regole che si rivolge a quasi il 40 per cento dell’umanità. Facebook deve costantemente riconsiderare la libertà di discorso aperto e la protezione contro la disinibizione. Naturalmente, anche gli interessi commerciali giocano un ruolo. Facebook guadagna facendo pubblicità alle persone che guardano i post di altre persone. Se vengono eliminati troppi post, alla fine le vendite diminuiranno.
Ecco perché è stata una sorpresa quando Mark Zuckerberg ha fondato l’Oversight Board, una sorta di corte suprema per Facebook. Ha iniziato a lavorare nell’ottobre 2020, un anno prima dell’omicidio di Meareg. Dovrebbe esprimere giudizi definitivi sulla corretta applicazione delle regole della casa. Facebook ha promesso di sottomettersi a queste sentenze: se il suo tribunale stabilisce che un post debba essere cancellato, Facebook deve farlo. Quindi il consiglio stabilisce i limiti di ciò che può essere detto sulla piattaforma. Sebbene sia finanziato da Facebook, attraverso un fondo di 280 milioni di dollari, si dice che prenda le sue decisioni indipendentemente dagli interessi commerciali dell’azienda. Nessuno può licenziare i propri membri, anche se criticano Mark Zuckerberg.
Alcuni vedono l’Oversight Board come una prova che dopo tutte le critiche sui danni che la piattaforma ha arrecato alla società, dopo tutti i dibattiti sulla polarizzazione, le notizie false e i messaggi di odio anonimi, Facebook è finalmente tornato in sé. Per loro sembra che Facebook ora voglia assumersi la responsabilità delle conseguenze delle sue azioni. L’ex primo ministro danese Helle Thorning-Schmidt, ex redattore capo del Guardian inglese , è stato reclutato come membro dell’Oversight Board Alan Rusbridger, premio Nobel per la pace yemenita Tawakkol Karman. Un totale di 23 avvocati, ex politici e giornalisti. Hanno tutti una cosa in comune: secondo il New Yorker , ogni anno prendono una cifra a sei cifre per 15 ore di lavoro al mese. E hai una reputazione da perdere.
Il consiglio ha anche dei critici. Semplicemente riconoscono in lui il tentativo di una multinazionale miliardaria di salvare il proprio modello di business: Prima che le autorità statali ci regolamentino, noi preferiamo regolarci da soli.
L’Organismo di Vigilanza ha sede a Londra. Non c’è nessun segno sulla porta, la posizione esatta deve rimanere segreta. All’interno poi soffitti alti, look da loft industriale, atmosfera da coffee shop, il travestimento della modernità. Normalmente ci sono persone in ufficio ora che visualizzano nuovi casi o ricercano quelli attuali. Oltre ai 23 membri, il consiglio ha 78 dipendenti che lavorano qui a Londra, San Francisco e Washington. Ma poiché tutti sono stati in ufficio da casa dal Corona, solo Thomas Hughes è lì in questo giorno dell’estate 2022. Il direttore esecutivo del consiglio di sorveglianza, non membro dell’organo decisionale, è appena tornato dalla California. Mark Zuckerberg aveva invitato lui e i membri a un primo incontro faccia a faccia. “Fino ad ora, tutti si conoscevano solo tramite Zoom”, afferma Hughes.
La Corte Suprema di Facebook non ha mai concesso l’ingresso ai giornalisti. Il rischio che alcuni dei dibattiti, a volte accesi, trapelassero sembrava troppo grande. Solo dopo un lungo avanti e indietro è stato l’ok per questa visita.
Prima di iniziare a lavorare per il Consiglio, Thomas Hughes era direttore di una ONG che lavorava per proteggere la libertà di espressione. Per tutta la vita ha cercato di alzare il volume in modo che le persone sentissero più di una sola voce. Ha creato stazioni radio in Indonesia dopo lo tsunami del 2004, ha contribuito a fondare giornali in Iraq dopo la guerra e ha lavorato alle leggi sulla libertà di stampa in Liberia. Si trattava sempre di giornalismo indipendente. Ora ci sono i social media, dice Hughes. Ci sono molte urla lì e l’obiettivo è rendere le urla sopportabili. “Ci saranno sempre problemi in una società. Anche su Facebook. Abbiamo solo bisogno di un sistema migliore e di processi migliori per riconoscere questi problemi”.
Solo nel primo anno dopo la formazione dell’Oversight Board, gli utenti di tutto il mondo hanno presentato ricorso contro una decisione presa da Facebook più di un milione di volte. Hughes e il suo staff esaminano le obiezioni, poi le setacciano come cercatori d’oro in più iterazioni, cercando gli esempi perfetti, i precedenti per affrontare l’odio, la violenza, la disinformazione. “Penso che possiamo aiutare Facebook a imparare da questi casi e migliorare”, afferma Hughes.
Circa una volta al trimestre, i 23 giudici selezionano tre casi su cui vogliono lavorare, ciascuno in piccoli gruppi. Ogni caso viene quindi ricercato, gli esperti vengono intervistati e Facebook deve rispondere a un questionario. Un processo lungo, ad oggi sono state pronunciate solo 31 sentenze. Ad esempio, si trattava dell’immagine di un seno femminile in connessione con la sensibilizzazione sul cancro al seno, la questione se le condizioni carcerarie del capo del Partito dei lavoratori del Kurdistan (PKK) possano essere discusse su Facebook o se debba essere autorizzato a chiamare qualcuno un “codardo”. In tutti e tre i casi, Facebook aveva ordinato la cancellazione: il petto era nudo, il PKK è classificato da Facebook come “organizzazione pericolosa” e “codardo” come designazione di carattere negativo.
Ma il caso più grande è stato qualcun altro: Donald Trump. Il 7 gennaio 2021, il giorno dopo l’assalto al Campidoglio di Washington, Facebook ha sospeso definitivamente l’account di Trump. È stata una decisione altamente politica, nel bel mezzo del Kulturkampf tra Democratici e Repubblicani negli Stati Uniti, in cui Facebook è stato ripetutamente preso di mira da entrambe le parti. Per molti a sinistra le regole sulla piattaforma sono troppo permissive, incolpano Facebook del trionfo del trumpismo , dell’incitamento all’odio, della violenza e delle teorie del complotto della destra. Molti di destra, invece, sospettano ad ogni cancellazione: la Silicon Valley di sinistra vuole censurarci! Certo, ora di nuovo, dopo l’affare Trump.
Facebook stesso voleva sapere dalla sua Corte Suprema se il blocco fosse corretto. Il consiglio esisteva solo da pochi mesi e i membri si chiedevano se questo caso non fosse un po’ grosso all’inizio. “E se commettiamo un errore?” – è così che qualcuno che era lì in quel momento descrive la preoccupazione. Alla fine hanno accettato il caso, ci sono voluti quasi quattro mesi e sono giunti alla conclusione che i post di Trump hanno contribuito all’assalto al Campidoglioavevo. Aveva raccontato ai suoi follower la bugia sull’elezione rubata su Facebook, e loro ci avevano creduto. Tuttavia, secondo la sentenza di ultima istanza, un divieto a vita è arbitrario. I giudici lo hanno ridotto a sei mesi e hanno chiesto a Facebook regole universali per tali decisioni.
Internet ha cambiato il modo in cui le persone comunicano
Facebook ha modificato le sue regole interne e ha esteso il divieto a due anni. Scadrà presto, il 7 gennaio 2023. Al più tardi, Mark Zuckerberg dovrà decidere se far rientrare Trump, proprio come ha appena fatto Elon Musk su Twitter .
Quando hanno annunciato il loro verdetto su Trump, i giudici sono diventati fondamentali: hanno invitato Facebook a tenere d’occhio conflitti politici come quello che ha fatto precipitare gli USA in una crisi così profonda. conflitti in tutto il mondo. E Facebook ha promesso di farlo. Importante almeno quanto la domanda su cosa sta facendo Facebook con Trump è la domanda su cosa Facebook ha imparato da Trump.
In linea di principio, Facebook monitora sempre la sua piattaforma allo stesso modo, sia negli Stati Uniti, in Europa o in Africa orientale. Un algoritmo cerca contenuti discutibili. Se ne trova qualcuno, ne elimina automaticamente la maggior parte. Ma a volte li assegna anche a una persona che poi deve prendere una decisione per conto di Facebook: liberarsene o no? Esistono molti di questi cosiddetti moderatori di contenuti in paesi economicamente forti come gli Stati Uniti o la Germania. Quasi nessuno è responsabile di paesi come l’Etiopia, lo Yemen, l’Iraq o il Myanmar. Facebook spende solo meno soldi lì. Sono proprio le regioni ad essere spesso politicamente particolarmente instabili.
Nel maggio 2021, quando l’Oversight Board ha annunciato la sua decisione storica nel caso Trump, decine di migliaia di persone erano già morte in Etiopia. Nel nord del Paese, dove vive la maggior parte dei tigrini, le truppe governative reprimono i ribelli, si verificano massacri e saccheggi e il governo ha interrotto tutti gli aiuti umanitari alla regione. Su Facebook, ora devono riscattare rapidamente la loro promessa. Da tempo ordinano gli stati in base alle categorie di rischio, l’Etiopia è al livello più alto. Facebook può rallentare algoritmicamente la distribuzione dei post che ritiene potenzialmente pericolosi. Può alimentare l’algoritmo con più parole chiave che porteranno alla cancellazione dei post. Oppure abilita filtri speciali per monitorare meglio i post. Cosa stia facendo esattamente Facebook al riguardo in Etiopia e se qualcosa cambierà dopo Trump rimane poco chiaro. Tutto ciò che si sa è che Facebook sta assumendo nuovi moderatori di contenuti.
Tutto può sembrare buono dall’esterno. Ma come ci si sente quando ci si trova proprio nel mezzo?
Quando i due post anonimi di Facebook su Meareg andranno online nell’ottobre 2021, c’è una piccola verità in essi, come in ogni calunnia efficace. Meareg non è davvero nella sua città natale. Contrariamente a quanto afferma BDU STAFF, però, non è fuggito negli USA perché aveva combattuto per il Tigray People’s Liberation Front. È andato nella capitale Addis per aiutare i parenti che hanno il Corona.
Nel suo appartamento ad Addis, la moglie racconta quanto fosse preoccupata dopo le poste. Accusare qualcuno in quel modo in una situazione così esplosiva, ha capito subito che lo avrebbe messo in pericolo. “Dopo lo scoppio della guerra, i vicini hanno smesso di salutarci. Quando siamo passati davanti a loro, improvvisamente sono rimasti in silenzio”, dice Nigist. “Erano nostri amici!” Ha chiesto a suo marito di rimanere ad Addis per il momento. “Ma Meareg non voleva. Ha detto che dopotutto non era una persona politica.”
I due si sono conosciuti nel 1982. Meareg era un giovane insegnante di chimica nel montuoso e verde nord dell’Etiopia, alla periferia della città medievale di Gondar. Il paese era allora governato dai comunisti, che fecero arrestare Meareg nel 1983. Fu accusato di essere un oppositore del regime, già allora. Lo hanno torturato, colpendo i suoi piedi con i chiodi, dicono Nigist e sua madre. Dopo un anno è stato rilasciato. Mostrano il documento di discarico. Dopo di che si sarebbero presi cura di lui. Nigist e Meareg si sono sposati. Successivamente hanno costruito la loro casa a Bahir Dar e hanno messo su famiglia.
Nel 1991, il Fronte popolare di liberazione del Tigray e i suoi alleati vinsero sui comunisti. Inizia un buon periodo per Nigist, Meareg ei quattro figli. Non importava a quale gruppo etnico appartenessi in quel momento, dice Nigist, avevano buoni amici che non erano tigrini. Hanno convertito il loro garage e l’hanno affittato. L’albero di mango davanti a casa sua dava ogni anno più frutti.
Il nuovo millennio è arrivato. In tutto il mondo Internet stava cambiando il modo di pensare, comunicare e agire, ma in Etiopia, per il momento, quasi tutto è rimasto uguale. Quasi nessuno era online, il governo controllava l’accesso alla rete, molti siti erano completamente bloccati e giornalisti e blogger venivano regolarmente arrestati. Le proteste di massa sono scoppiate nel 2018. Il nuovo primo ministro è stato Abiy Ahmed, che ha fondato il suo potere nello stato multietnico dell’Etiopia non sui vecchi quadri del Tigray, ma su membri di un altro gruppo etnico, gli Amhara. È iniziato un brutto periodo per la famiglia di Nigist e Meareg e per altri Tigrini.
Abiy Ahmet ha revocato la censura di Internet e Facebook è stato presto consentito senza restrizioni. Lì, Amhara ha iniziato l’incitamento contro il Tigray, ei politici amarici hanno chiesto di “riprendersi” la regione del Tigray. Le tensioni etniche sono aumentate. Appena due anni e mezzo dopo l’insediamento del nuovo primo ministro, è scoppiata la guerra tra il governo e il Fronte popolare di liberazione del Tigray .
Un uomo di 31 anni siede nel salotto di una residenza studentesca a Parigi ed è stato testimone di come le voci radicali su Facebook siano diventate più forti tra gli etiopi. È Abrham, il secondo figlio maggiore di Nigist e Meareg. In realtà sta facendo il dottorato in Etiopia in studi sulla pace e sui conflitti, ma dopo l’assassinio di suo padre ha ricevuto un visto per studenti per la Francia. Abraham non parla una parola di francese. A volte potrebbe essere meglio non capire nulla di ciò che accade intorno a te.
L’uomo reagisce con più forza a ciò che lo turba di più
Lui ei suoi amici inizialmente hanno accolto con favore l’elezione del nuovo governo, dice Abrham. “Come tutti i giovani, non vedevamo l’ora di avere più libertà”.
All’epoca seguiva principalmente i cugini su Facebook e non pubblicava nulla di politico. Eppure, pochi mesi prima dell’assassinio del padre, l’algoritmo di Facebook ha messo davanti a sé il seguente post di un noto nazionalista filogovernativo con 250.000 follower, il Tigrayer, con 250.000 follower: “Le rivendicazioni politiche del Amhara non deve mai più essere compromessa dagli abitanti del Tigray. La nostra lotta la renderà una perdente. È finita!”
Come se una porta si fosse aperta e l’aria fredda stesse entrando, Abrham ha ricevuto sempre più contributi di questo tipo. Ad esempio questo: “Se agli Amhara non piace il colore dei tuoi occhi, troveranno modi e mezzi. Lascia che te lo dica!” L’autore è un etiope che vive negli Stati Uniti, alimentando il conflitto da lì. Abrham non conosce l’uomo – e ha comunque ricevuto un messaggio diretto da lui: “Cosa ci fai a Bahir Dar, sporco Tigrino?”
La piattaforma sa da tempo quanto siano buoni tali contenuti per Facebook, da un punto di vista puramente economico. Nel 2007 Facebook ha fondato un “team di crescita”. Gli utenti sono diventati una specie di pazienti, a cui sono stati somministrati sempre nuovi farmaci sperimentali con l’aiuto di algoritmi in continua evoluzione. Il team ha osservato come ogni cocktail di algoritmi ha influenzato il comportamento di un utente. È rimasto più a lungo su Facebook? Quindi potresti mostrargli altri annunci? Ben presto divenne chiaro quale droga funzionasse meglio: l’odio. L’uomo reagisce con più forza a ciò che lo turba di più. Poi condivide l’indignazione, ne vuole di più. In questo modo Facebook non diventa un luogo di ritrovi amichevoli, ma uno stadio di calcio dove le persone crescono insieme stando contro i tifosi dell’altra squadra.
Abrham ha segnalato quasi 20 post su Facebook. È molto semplice, basta spostare il mouse sui tre puntini sul bordo destro di un post, cliccare, si apre una finestra, si preme “Segnala post”, si clicca ancora, si sceglie tra categorie come “molestie”, ” terrorismo” o “incitamento all’odio”. clic. Finito.
Facebook ha rifiutato di eliminare ogni volta sulla base del fatto che il contenuto non violava le regole della casa. Se Abrham non volesse più vedere tali messaggi nel suo feed di notizie, potrebbe bloccare la persona, gli ha scritto Facebook.
Alcuni membri dell’Oversight Board sanno esattamente cosa vuol dire essere vittima di una campagna di odio sui social media. Maina Kiai è uno dei quattro membri del consiglio dall’Africa. In un giorno dell’estate del 2022, è seduto in un ristorante a Washington e ordina tapas. Kiai è un ex relatore speciale delle Nazioni Unite e direttore del programma Africa di Amnesty International e attualmente lavora per Human Rights Watch. Dopo le elezioni presidenziali del 2007 nel suo nativo Kenya, molte persone sono morte perché il candidato perdente ha affermato che le elezioni erano state truccate. Kiai in seguito ha fatto pressioni per un’indagine sui disordini, dopo di che è stato attaccato online. Ad un certo punto, gli aggressori erano davanti alla sua porta. Ad oggi non ha un account Facebook. “È troppo invadente per me.”
Dopo che un conoscente gli ha scritto che Facebook voleva parlargli di un posto nell’Oversight Board, ci ha pensato a lungo, dice Maina Kiai. Ha chiesto in giro chi altro stava facendo tutto – tutte persone fantastiche. Ed era interessato a scoprire come funziona effettivamente Facebook.
La sua conclusione finora in questo lavoro? Nel 70 per cento dei casi, lui e i suoi colleghi avrebbero annullato una decisione presa da Facebook, afferma Kiai. La piattaforma lo faceva ogni volta. Tuttavia, sulla base delle lezioni apprese da questi casi, hanno anche fornito 86 raccomandazioni generali a Facebook. Finora solo 28 di questi sono stati pienamente attuati. Almeno un inizio, pensa Kiai. Facebook ha tradotto le regole della casa in numerose lingue aggiuntive e ora sta rispondendo alle domande dei suoi capi giudici più frequentemente sui singoli casi.
Sembra un politico che descrive la trasformazione dolorosamente lenta di una potente istituzione globale. Nel frattempo, però, questa istituzione sta cambiando il mondo alla velocità della luce e non sempre è in grado di tenere il passo.
A Nairobi, capitale del Kenya, lavorano per Facebook le persone che dovrebbero occuparsi della crisi politica in Etiopia. Sono i moderatori dei contenuti che dovrebbero rivedere i post potenzialmente pericolosi. Una di loro qui si chiama Senait, ma non vuole rivelare pubblicamente il suo vero nome per paura di perdere il lavoro. Senait ha studiato linguistica e lavora per un subappaltatore commissionato da Facebook. Quando parla al telefono della sua vita quotidiana nella lotta contro l’odio, si pensa come quando ha parlato con Maina Kiai: Sì, Facebook sta facendo qualcosa. Ma non è abbastanza.
Ora sono 32 in squadra, più di prima. Alcuni nuovi arrivati sono stati appena assunti, parlano non solo l’amarico ma anche il tigrino, quindi ora possono rivedere i post di entrambe le parti del conflitto etnico. Ma anche qui, in mezzo alla capitale di un paese vicino, questo conflitto è arrivato da tempo, dice Senait. Ad esempio, uno della squadra, un Amhara, non ha quasi mai cancellato l’incitamento all’odio dei nazionalisti amarici. Ad un certo punto è stato notato, la donna doveva andare. Restava il problema della mancanza di tempo.
Senait ha 50 secondi per decidere se un post deve essere cancellato. Ogni settimana viene valutato il loro tempo medio di elaborazione. L’azienda lo chiama “tempo di gestione dell’azione ” “C’è molta pressione”, afferma Senait. Il suo team ha recentemente ottenuto uno stipendio più alto, invece di $ 600 ora ne ricevono $ 800 al mese. Prima di allora, cinque si erano dimessi. L’elevato turnover rende difficile acquisire esperienza, imparare a separare il dannoso dall’innocuo.
Sebbene Facebook lo sapesse, gli account non sono stati cancellati
Conosci l’account BDU STAFF?
Senait lo chiama su Facebook. Non la conosco, dice. Lei scorre e fa clic sulla pagina, “hm, hm”, clic, clic, “un sacco di parolacce per i Tigrini”, clic, clic. Senait è sorpreso dalla frequenza con cui i dipendenti dell’università vengono accusati senza prove di aver rubato fondi all’università o di essere ricchi per altri dubbi motivi. Fai clic, fai clic, “oh, questo è davvero problematico ora”. Uno dei commenti recita: “Se tu fossi un vero uomo, li uccideresti tutti”. Guarda le pagine Facebook di alcuni dei commentatori. «Sono della milizia di Fano», dice. Milizia fanese. Non sembra più la vita di tutti i giorni nel campus. È un gruppo armato degli Amhara, che ha combattuto dalla parte del governo. Osservatori indipendenti la accusano di aver preso parte a crimini di guerra contro i tigrini, stupri di massa e pulizia etnica.
Ora si potrebbe presumere che Facebook stia semplicemente annegando nella massa di tutti i post. Tuttavia, un documento dell’ex dipendente e informatore di Facebook Frances Haugen mostra che la piattaforma sa esattamente chi ha alimentato il conflitto in Etiopia. Il documento è a disposizione di ZEIT , era destinato esclusivamente a scopi interni a Facebook e non era mai stato pensato per essere pubblicato. Descrive una rete di account Facebook che hanno una cosa in comune: sono legati alla milizia di Fano. Questa rete, dice, “diffonde incitamento alla violenza e incitamento all’odio in Etiopia”.
Quindi, sebbene Facebook lo sapesse, non vedeva alcun motivo per eliminare gli account.
Perché è così è evidente da un secondo documento dell’informatore, che è anche a disposizione di ZEIT . Si dice che Mark Zuckerberg abbia affermato di supportare algoritmi aggiuntivi che eliminano, rallentano e bloccano i contenuti pericolosi. Tuttavia, fa un avvertimento: tali algoritmi non dovrebbero avere alcun impatto sulla crescita della piattaforma. È come se il centro di controllo ferroviario inviasse un messaggio radio alla cabina di guida: sono felice di guidare più lentamente, ma solo se non arrivi a destinazione più tardi.
E poi c’è la cosa delle celebrità. Facebook ha una specie di programma speciale per politici, giornalisti, star e altre persone con molti follower. Si chiama controllo incrociato. Chiunque sia incluso in questo programma da Facebook non deve attenersi così rigorosamente alle regole della casa. Mentre i membri dell’Oversight Board stavano deliberando sul divieto di Donald Trump, sono stati informati da Facebook che il controllo incrociato riguarda solo alcune personalità.
Frances Haugen, l’informatore, in seguito ha rivelato quanti utenti Facebook apparentemente ha smistato esattamente in questo programma: 5,8 milioni.
Martedì di questa settimana, la Corte Suprema di Facebook si è rivolta al pubblico, esortando l’azienda a rivedere in maniera massiccia il suo programma di controlli incrociati. Si dice che chiunque metta in primo piano i propri interessi commerciali tanto quanto Facebook con il suo trattamento speciale per le celebrità non adempie alle proprie responsabilità in materia di diritti umani. Puoi capire dal messaggio che le persone del consiglio di sorveglianza sono arrabbiate.
“Ci ha aperto gli occhi”, dice il membro del consiglio Suzanne Nossel riguardo alle bugie di Facebook a lei e ai suoi colleghi. Nossel è un avvocato e presidente dell’associazione degli autori PEN America. È consapevole, afferma, che il consiglio di sorveglianza sarà giudicato in base alla sua capacità di gestire l’impatto negativo di Facebook. “Quindi la distruzione del discorso pubblico”. Nossel fa una pausa per un momento. “Al momento non siamo nella posizione migliore per farlo”. Se si limitano a sedersi in disparte e guardare un caso dopo l’altro senza cambiare la struttura di Facebook, allora è tempo perso.
I social media e l’odio. Potresti paragonarlo a un’altra crisi esistenziale a cui non resta molto tempo. Forse l’odio per piattaforme come Facebook è ciò che il gas e il carbone sono per le società industriali tradizionali: il carburante che alimenta la crescita. E forse una guerra civile, proprio come il riscaldamento globale, è la conseguenza che si accetta. Promettono di combatterli, ma in realtà non fanno molto.
Poteva andare diversamente. La crescita di Facebook è stata guidata politicamente fin dall’inizio. Più di un quarto di secolo fa, i politici americani decisero di esentare i social media dalla responsabilità legale per i contenuti pubblicati sui loro siti web. È stato un regalo di Washington alla Silicon Valley. Un salto di qualità che all’epoca sembrava innocuo. Gli algoritmi che perfezionano l’attenzione delle persone all’odio non esistevano ancora. Era impensabile che un giorno una società californiana da miliardi di dollari avrebbe avuto voce in capitolo nel corso dei conflitti politici in tutto il mondo.
Nell’agosto 2021, Suzanne Nossel, Maina Kiai e gli altri membri del consiglio hanno preso un caso dall’Etiopia. Un utente di Facebook ha pubblicato un post affermando che i civili del Tigray stavano aiutando i combattenti del Fronte popolare di liberazione del Tigray a commettere atrocità. Hanno guidato le milizie di porta in porta, uccidendo donne e bambini Amhara. Ha ottenuto le informazioni da persone delle regioni colpite. Il post terminava dicendo: “Conquisteremo la nostra libertà attraverso la nostra lotta”.
La cancellazione del post di Facebook è arrivata troppo tardi
Gli algoritmi di Facebook hanno segnalato il post. Il team di Nairobi lo ha controllato e ha deciso che stava infrangendo le regole della casa. Il post è stato eliminato. Il suo autore ha fatto appello contro questo su Facebook. Il team dei contenuti ha controllato più e più volte giudicato: il post deve essere cancellato.
Ma l’autore non si è arreso. Ora si è rivolto all’Organismo di Vigilanza. Il caso è stato risolto lì. Ne è seguito un acceso dibattito. Alcuni dei membri, così dicono oggi le persone coinvolte, erano favorevoli alla cancellazione – e hanno ricordato un altro paese in guerra civile, il Myanmar. Da tempo su Facebook circolavano voci per diffamare i membri della minoranza musulmana che viveva nel Paese. L’odio è culminato in una devastante esplosione di violenza, migliaia di musulmani sono stati assassinati e quasi un milione sono fuggiti nel vicino Bangladesh. Facebook ha a lungo minimizzato il suo ruolo in questo genocidio . Solo dopo un’indagine ufficiale delle Nazioni Unite l’azienda ha ammesso di non aver fatto abbastanza per prevenire la violenza.
I membri contrari alla cancellazione hanno sostenuto il diritto all’informazione. La gente non è riuscita a informarsi sui media ufficiali in Etiopia, non c’erano quasi notizie sul conflitto. In una situazione del genere, un tale contributo tramite una piattaforma come Facebook potrebbe fornire alla popolazione informazioni importanti.
Utilizzando il caso dell’Etiopia, il Consiglio ha voluto rispondere alla domanda su come affrontare le voci di atrocità in un paese in cui le persone spesso possono utilizzare i social media solo per avvertirsi a vicenda dei pericoli. Una questione di equilibrio, ancora una volta, tra la violenza che la voce inciterebbe e la protezione che può offrire se vera.
Il membro del consiglio Nossel afferma che il caso dell’Etiopia è stato uno dei più difficili fino ad oggi. Come dovrebbero decidere?
Il 14 ottobre 2021, il figlio del professor Meareg, Abrham, ha segnalato a Facebook i post infiammatori dell’account BDU STAFF tramite suo padre.
Il 30 ottobre, l’algoritmo di Facebook ha pubblicato un post sulla pagina Facebook di Abrham: “46.000 tigrini vivono con le loro famiglie a Bahir Dar. Che ci piaccia o no, dobbiamo difenderci dai terroristi. Gli stupidi e i sordi scompariranno. ”
Questa volta Abraham conosce l’autore. È il suo migliore amico. I due erano vicini di casa, andavano a scuola insieme, giocavano a calcio insieme, si raccontavano quando si innamoravano di una ragazza.
Il 31 ottobre 2021, l’amico ha scritto: “Dobbiamo monitorare da vicino i tigrini che vivono a Gondar o Bahir Dar e prendere le misure necessarie. Se saremo crudeli quanto loro, allora possiamo prevalere”.
Tre giorni dopo, la mattina del 3 novembre 2021, Meareg è andato un’ultima volta alla sua università. Poco prima, il suo datore di lavoro gli aveva suggerito di consegnare la disdetta. Nessuno lì parla più con lui. Prende le ultime cose e torna a casa. Lì incontra i suoi assassini.
Il 4 novembre, Facebook schiera una squadra di emergenza in più in Etiopia.
L’11 novembre, la società Abrham ha inviato un messaggio. Il post su suo padre violava gli standard della comunità ed è stato rimosso. Papà è morto da una settimana.
Il 14 dicembre 2021 l’Organismo di Vigilanza emetterà il suo verdetto sul caso dell’Etiopia: il post con la voce dovrebbe essere cancellato. Inoltre, Facebook consiglia di commissionare una revisione indipendente: che ruolo gioca la piattaforma in questo conflitto? Facebook risponde che una cosa del genere richiede molto “tempo”. Ad oggi non è successo nulla.
Meareg è morto ormai da un anno, sua moglie Nigist non sa se e dove sia stato sepolto. La casa che condividevano le è stata tolta ed è ora un alloggio per le forze speciali armate.
L’account BDU STAFF da allora si è agitato contro diversi altri professori e personale dell’Università di Bahir Dar presumibilmente tigrini. Su richiesta, l’università conferma che BDU STAFF è un account anonimo che non è gestito da essa. Causa grossi problemi. L’account è ancora online. La società madre di Facebook, Meta, non commenta le richieste ripetute.
Nel frattempo, la Corte Suprema degli Stati Uniti si è attivata. Non il consiglio di sorveglianza. Ma quella vera, la Corte Suprema di Washington. Per la prima volta ha accettato un caso in cui deve decidere se le piattaforme digitali come Facebook sono responsabili dei loro contenuti – e quindi anche delle conseguenze che i contenuti hanno nel mondo reale. Ad esempio, per la morte di un professore di chimica di 60 anni in una cittadina dell’Etiopia nord-occidentale.
FONTE: https://www.zeit.de/2022/51/aethiopien-mord-facebook-hetze-buergerkrieg/komplettansicht
Un po’ nerd, un po’ ciclista con la voglia di tornare a girare l’ Etiopia