Rasizm na ekranie? Kontrowersyjne algorytmy Twittera
29 września 2020Czy algorytmy Twittera faktycznie można określić jako rasistowskie? Aby odpowiedzieć na to pytanie, użytkownik Twittera Tony Arcieri rozpoczął pewien eksperyment. Wrzucił kolaż zdjęć z wizerunkami dwóch amerykańskich polityków – Baracka Obamy i Mitcha McConnella. Obrazy były pionowe, z dużą ilością białych przestrzeni między obiema twarzami. Ten specjalny format sprawił, że algorytm stojący za podglądem obrazu musiał zdecydować o przekroju jednej z dwóch twarzy. Aby przetestować różne warianty, Arcieri umieścił podobizny McConnella i Obamy na górze i na dole zdjęcia.
Ale bez względu na to, który polityk był na górze, pokazywano jedynie białego McConnella. Gdy Arcieri zamienił postaciom krawaty, wynik pozostawał taki sam. Twitter to tylko jeden z przykładów rasizmu, który przejawia się w algorytmach – podsumował użytkownik. Inni na dowód powtórzyli jego eksperyment z Obamą i McConnellem i uzyskali ten sam wynik.
Dyskryminacja? Tak - ale nie zawsze
Nie do końca wiadomo, dlaczego algorytm Twittera preferował McConnella. W eksperymencie DW ze zdjęciami piłkarzy Jerome'a Boatenga i Bastiana Schweinsteigera oraz aktorów Willa Smitha i Toma Cruise'a wyświetlona została osoba o ciemniejszym kolorze skóry. Inni użytkownicy znaleźli powiązania z kolejnymi przykładami porównawczymi. Wydaje się więc, że jest to bardziej skomplikowane.
Rzeczniczka prasowa Twittera Liz Kelley obiecała, że koncern przyjrzy się omówionemu problemowi i go naprawi. Pewnym jest, że od 2017 roku stosuje się tzw. Auto-Cropping. Termin ten oznacza sztuczną inteligencję stosowaną do automatycznego podglądu obrazów. Dokładne działanie nadal nie jest znane. Według Twittera we wstępnym teście nie stwierdzono dyskryminacji.
Wszystko zależy od danych
Nicolas Kayser-Bril z berlińskiej organizacji pozarządowej AlgorithmWatch nie uważa, aby ujawnianie kodów Twittera uchodziło za skuteczne.
„Wyniki algorytmu są określane nie tylko przez kod” – powiedział DW dziennikarz danych. „Zachowanie algorytmu jest określane z jednej strony przez kod, ale z drugiej strony również przez bazę danych. Sposób ich gromadzenia i to, która sekcja okaże się ostatecznie dostępna dla algorytmu, zależy również od wielu czynników społecznych” – mówi Kayser-Bril. Algorytm pobiera dane i próbuje dopasować, jak mógłby wyglądać dobry kadr obrazu.
Ale to, które dane zostaną pokazane algorytmowi, zależy zarówno od osób, które wcześniej je przetworzyły, jak i od ich źródła. Jeśli na przykład dane pochodzą z rejestru policyjnego, istnieje inny dobór obrazów niż dane pobrane z platform społecznościowych, takich jak Instagram. W zestawach danych częściej prezentowane są twarze o jasnej karnacji.
Za sprawą algorytmów efekty mogą stać się jeszcze silniejsze. Im więcej osób o jasnej karnacji można zobaczyć w sieciach społecznościowych, tym więcej zostanie wybranych w ostatecznym podglądzie, na przykład na Twitterze, w przyszłości. W rezultacie bazy danych osób o jasnej karnacji stają się jeszcze większe. Jest to porównywalne z listą polecanych książek na Amazonie – jeśli czyta się dużo powieści kryminalnych, pojawiają się one automatycznie w sugestiach. „W szczególności obszary sztucznej inteligencji wzmacniają wszelkie uprzedzenia” – mówi Kayser-Bril.
Od broni do małp
Istnieje wiele przykładów, w których algorytmy dyskryminują czarnoskórych. Dziennikarz danych przyjrzał się ostatnio Google Vision Cloud, które nadaje obiektom na zdjęciach tzw. etykiety. Powinny na przykład docelowo rozpoznawać brutalność bądź erotykę, w celu ostatecznej szybkiej eliminacji niewłaściwych treści. Na jednym z badanych zdjęć osoba – czasem o ciemnym, czasem jasnym kolorze skóry – trzyma przy czole termometr. W przypadku zdjęcia ręki osoby o pochodzeniu azjatyckim, system rozpoznaje przedmiot jako urządzenie elektroniczne. W wypadku ręki osoby czarnoskórej rozpoznaje broń palną.
Kayser-Bril zbadał również inne algorytmy. Program Google Perspective ma na celu ułatwienie moderowania komentarzy poprzez odfiltrowywanie trolli i obraźliwych komentarzy. 75% wypowiedzi zaczynających się od stwierdzenia „Jako czarna kobieta chcę powiedzieć” zostało ocenione jako niewłaściwe. W wypadku zdania „Mówię to jako Francuz” oznaczenie wydano tylko w 3% sytuacji.
To jednak nie koniec listy. Jedno z oprogramowań Google’a oznaczyło zdjęcie Afroamerykanki podpisem „goryl”. Wyszukiwarka obrazów w Google z kolei dla zapytania „profesjonalne fryzury” prowadzą prawie wyłącznie do warkoczyków z blond włosami. Tłumacz Google'a zmienia też płeć zawodów, gdy tłumaczenie nie jest związane ze stereotypową płcią dla danego stanowiska.
Gdy algorytmy rządzą polityką
W innych przypadkach praca algorytmów miała ogromny wpływ na życie codzienne. Jeden z nowozelandzkich oddziałów paszportowych odmawiał automatycznego rozpoznania paszportów, na których przedstawiano osoby o azjatyckiej urodzie. Algorytm oprogramowania klasyfikował też ich oczy jako zamknięte. W Wielkiej Brytanii algorytmy wydawały oceny maturalne podczas pandemii, ponieważ uczniowie nie mogli osobiście stawić się na egzaminie. Uczniowie ze szkół osiągających słabsze wyniki otrzymywali automatycznie gorsze średnie oceny końcowe.
Szczególnie poważne konsekwencje mają algorytmy rasistowskie w tzw. Predictive Policing, czyli w oprogramowaniu prewencyjnym wykorzystywanym w pracy policji. Programy komputerowe wskazują, które dzielnice i ulice wymagają szczególnie intensywnych kontroli. Dostępne jest również oprogramowanie, które doradza sędziom w orzekaniu o długości kary pozbawienia wolności.
Potrzeba rozwiązania – ale jakiego?
Dyskusja na temat uprzedzeń rasistowskich nie jest niczym nowym. Od pewnego czasu jest przedmiotem debaty akademickiej w zakresie studiów dotyczących sztucznej inteligencji. Zdaniem ekspertów rozwiązaniem tego problemu mogłoby być zbilansowanie baz danych pod względem mniejszości.
W praktyce jednak może okazać się to trudne. Z jednej strony w internecie jest prawdopodobnie zbyt mało zdjęć określonych grup etnicznych. Z drugiej strony nie ma jednolitej sprawiedliwej definicji, według której można by dokonać takiego procesu.
Innym możliwym wariantem byłoby zrozumienie, dlaczego algorytm podjął daną decyzję. Gdyby wyświetlono zdjęcie Mitcha McConnella z powodu szerszego uśmiechu, a nie białego koloru skóry, wybór nie zostałby odebrany negatywnie. Często jednak trudno o poprawne wyjaśnienie decyzji algorytmów, ponieważ liczba czynników na nie wpływających może osiągać nawet miliardy.
Problem jest znany, ale rozwiązania nadal nie widać, choć czas nagli. „Musimy się tym teraz zająć, ponieważ systemy te są podstawą technologii przyszłości” – mówi Margaret Mitchell z Google Research. Dyrektor techniczny Twittera, Parag Agrawal, również podkreślił, że nie może się doczekać „publicznego, otwartego i rygorystycznego testu”.