È difficile separare il movimento Black Lives Matter dalle piattaforme tecnologiche che ne aumentano la portata globale.

Darnella Frazier, la diciassettenne che ha catturato gli ultimi momenti di George Floyd, ha inizialmente condiviso il video su Facebook, dove ora è stato visto oltre 1,8 milioni di volte. E, naturalmente, l’hashtag #BlackLivesMatter stesso è emerso da Twitter nel 2013, in risposta all’assoluzione di George Zimmerman che ha profilato razzialmente e fatalmente sparato all’adolescente afroamericana Trayvon Martin.

Entro il 2016, l’hashtag #BlackLivesMatter è apparso 30 milioni di volte, secondo il Pew Research Center. Una ricerca aggiornata di Pew mostra che l’hashtag è apparso 47,8 milioni di volte tra il 26 maggio e il 7 giugno, il che non sorprende dato il suo supporto internazionale – inclusa l’ondata di fan di K-Pop che hanno usato hashtag dai contromovimenti anti-BLM per affogare discorsi di odio.

Ma cosa succede quando l’argomento smette di fare tendenza?

Il potere virale dei social media lo rende un sito ideale per l’attivismo. Movimenti passati come Extinction Rebellion, #MeToo e la primavera araba lo hanno reso evidente. Ma cosa succede quando l’argomento smette di fare tendenza?

Come possono aziende come Facebook e Twitter andare oltre il semplice essere spazi che facilitano la conversazione?

Molte di queste piattaforme hanno mostrato il loro supporto per il movimento, sebbene vario. Facebook ha annunciato che avrebbe donato $ 10 milioni ai “gruppi che lavorano sulla giustizia razziale”, mentre YouTube ha dichiarato che avrebbe donato $ 1 milione al Center for Policing Equity, così come Netflix.

Twitter ha aggiunto #BlackLivesMatter alla sua biografia, ma non ha promesso donazioni.

Perché la solidarietà e le donazioni non sono sufficienti

Seduti nel mirino dell’influenza sociale, politica ed economica, questi monoliti tecnologici hanno il potere di apportare i cambiamenti sistemici richiesti da Black Lives Matter, a partire dall’interno.

Un modo per Big Tech di avere un impatto duraturo è contrastare attivamente i propri pregiudizi strutturali, sia in termini di prodotti che di sviluppatori. I due vanno di pari passo, dopo tutto.

Uno studio del Cornell del 2019 ha identificato che l’intelligenza artificiale di monitoraggio di Twitter era distorta rispetto agli utenti afroamericani, con i tweet degli utenti neri che avevano maggiori probabilità di essere etichettati come incitamento all’odio rispetto agli utenti bianchi della piattaforma.

Leggi anche  Come testiamo: compresse

“Questi sistemi sono stati sviluppati per identificare il linguaggio utilizzato per indirizzare le popolazioni emarginate online”, ha affermato Thomas Davidson, autore principale dello studio e candidato al dottorato. “È estremamente preoccupante se gli stessi sistemi stessi discriminano la popolazione per cui sono progettati per proteggere”.

I pregiudizi nell’apprendimento automatico non sono una novità. Guarda la tecnologia di riconoscimento facciale.

L’anno scorso, il New York Times ha riferito che gli algoritmi di apprendimento automatico nei sistemi di riconoscimento facciale hanno da 10 a 100 volte più probabilità di identificare falsamente i volti afroamericani e asiatici, rispetto ai volti caucasici, secondo uno studio condotto dal National Institute of Standards and Technology.

Amazon Rekognition ha mostrato di avere pregiudizi razziali. Immagine proveniente dal sito di riconoscimento.

Ma questi pregiudizi abbastanza spesso hanno origini nelle basi stabilite dalle persone.

Come spiega Harvard Business Review, ciò può essere dovuto alla formazione del software di machine learning con dati distorti, ovvero dati impregnati di pregiudizi sociali e storici esistenti.

Anche i campioni di dati possono essere imperfetti, con alcuni gruppi più rappresentati o meno rappresentati di altri.

A seguito delle proteste di Black Lives Matter, l’8 giugno IBM ha annunciato che avrebbe smesso di sviluppare e ricercare software di riconoscimento facciale per scopi generici.

Il CEO dell’azienda Arvind Krishna ha dichiarato in una lettera al Congresso degli Stati Uniti che “IBM si oppone fermamente e non perdonerà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali o qualsiasi scopo che non sia coerente con i nostri valori e principi di fiducia e trasparenza “.

A seguito di ciò, Amazon ha annunciato che avrebbe vietato l’uso del suo controverso software di riconoscimento facciale Rekognition da parte delle forze dell’ordine per un anno, fino a quando non saranno introdotte normative più severe.

Il rekognition ha mostrato pregiudizi contro i neri e le persone dalla pelle più scura, come ha scoperto la ricercatrice del MIT Media Lab Joy Buolamwini nel 2019.

Mentre queste mosse sono nella giusta direzione, Big Tech può affrontare più attivamente i suoi punti ciechi e pregiudizi assumendo più ingegneri, programmatori e scienziati neri.

La mancanza di diversità nella Silicone Valley è evidente. Rimane prevalentemente bianco o asiatico e maschio, e il progresso verso l’inclusività è stato lento.

Leggi anche  I migliori programmi TV su Amazon Prime ad agosto 2019

Nel 2018, meno del 3% dei dipendenti di Uber, Twitter, Google e Facebook identificati come neri. Il rapporto annuale sulla diversità 2019 di Facebook ha mostrato che i dipendenti neri sono passati dal 3,5% al ​​3,8% in tutta l’azienda. Nel 2019 solo l’1,5% dei suoi ruoli tecnici erano ricoperti da persone di colore, in aumento rispetto all’1,3% dell’anno precedente.

Come consumatori di tecnologia e partecipanti ai social media, dobbiamo aspettarci di più dalla Big Tech e rimanere vigili. Dobbiamo garantire che la solidarietà che offrono oggi non diventi retorica vuota domani. I cambiamenti non avverranno dall’oggi al domani. Ma devono succedere.