piątek, 6 maja 2016

Nowy rasizm, nowa antropometria, nowe archiwum policyjne


Kiedy w czerwcu 2015 roku nowojorski programista Jacky Alciné zalogował się do Google Photos, odkrył, że zdjęcie, do którego pozował z przyjaciółką, komputerowy algorytm rozpoznawania twarzy uznał za fotografię małp. Album nowojorczyka zawierał różne obrazy: niektóre zdjęcia wykonane były z okna samolotu, inne zostały zrobione podczas wycieczki rowerowej lub z okazji uzyskania stopnia naukowego, jeszcze inne przedstawiały drapacze chmur i samochody. Algorytm Google Photos pomylił się jeden raz: kwalifikując Alciné i jego przyjaciółkę jako przedstawicieli gatunku małp. Fakt, że są czarnoskórzy, okazał się nie bez znaczenia.
Alciné nie pozostał dłużny firmie Google, reagując natychmiast bezpardonowym komentarzem w sieci: ,,Google Photos, wszyscy jesteście pojebani. Moja przyjaciółka nie jest gorylem". Głównego zainteresowanego przeproszono i zapewniono, że Google zrobi wszystko, by błąd już się nie powtórzył. Sama debata o tym, czy maszyny mogą być rasistami, zaczęła się jednak dużo wcześniej. W 2009 roku Joz Wang i jej brat kupili matce w prezencie aparat Nikon Coolpix S630. Ilekroć stawali przed obiektywem i roześmiani pozowali do zdjęcia, na ekranie aparatu wyświetlało się pytanie: ,,Czy ktoś mrugnął?". Błąd algorytmu nie oburzył Joz Wang tak jak Jacky'ego Alciné; uznała go raczej za zabawną usterkę, ale w Internecie zamieściła zdjęcie z następującym komentarzem: ,,Rasistowski aparat! Nie, nie mrugnęłam. Po prostu jestem Azjatką". Pół roku później w serwisie YouTube Wanda Zamen zamieściła film nagrany za pomocą kamery internetowej wyprodukowanej przez Hewlett-Packard. Jedna z jej funkcji umożliwiała śledzenie twarzy stojących przez komputerem osób, ale jej niedoskonałość wynikała z faktu, że o ile kamera bez wahania podążała za białą twarzą Zamen, o tyle pozostawała w bezruchu, kiedy poruszała się twarz jej czarnoskórego współpracownika Desiego Cryera. Do tej pory wideo doczekało się ponad trzech milionów odtworzeń, a firma HP przeprosiła za wadę programu i zadeklarowała jej niezwłoczne usunięcie.
Przebieg każdej z tych niepokojących spraw wyglądał podobnie. Zaczęło się od wykrycia usterki systemu, a skończyło na przeprosinach winnej błędu firmy po jego ujawnieniu. O wszystkich trzech sprawach szybko zapomniano, a nawet jeśli nie zapomniano, zredukowano je do zagadnienia publicystycznego i zaetykietowano jako pozostałości rasistowskiej tradycji myślenia.
Nie wiadomo, na podstawie jakich obliczeń algorytm Google Photos uznał twarz Alciné i jego przyjaciółki za twarze goryli. Tak samo jak nie wiadomo, dlaczego aparat Nikon upierał się, że stojący przez obiektywem Azjaci mrugają, i dlaczego twarz Desiego Cryera pozostawała niewidoczna dla oprogramowania firmy HP. Wiadomo zaś, że aplikacje rozpoznające ludzkie twarze i ciała wykonują tysiące operacji w ułamku sekundy: mierzą, uważnie oglądają z każdej strony, identyfikują i włączają w typ.
Nie zdano sobie sprawy z wagi, jaką metoda psychoanalityczna przypisuje czynności pomyłkowej. Pomyłka systemu (nazwana za każdym razem eufemistycznie brakiem lub usterką) ujawniła tu działanie zbiorowej nieświadomości nowoczesnego społeczeństwa. Technologie rozpoznawania twarzy, w które inwestują najwięksi gracze Internetu, regenerują bowiem w ukryciu dawne tradycje fizjonomiki. Szukają w twarzy niezmiennych cech i niepodważalnych znaków tożsamości. Są wrażliwe na jej ekspresję, coraz sprawniej rozpoznając śmiech, smutek i płacz. Cybernetycznymi rękami obmacują czaszki i jak frenologowie szukają cech świadczących o osobowości i charakterze jednostki. Przykładają do głowy i ciała wirtualne narzędzia pomiarowe pod duchowym patronatem kraniometrii i antropometrii.
Podobne wnioski do tych, które wynikły z operacji przeprowadzonych przez programy Google, HP i Nikona, prezentowali Pieter Camper (pomiar kąta twarzowego pozwalał na przyporządkowanie jednostki do odpowiedniej rasy znajdującej się w ściśle wyznaczonym punkcie hierarchii ludzkiego gatunku), Cesare Lombroso (długość nóg i rąk, kształt czaszki i ilość owłosienia wskazywały – lub nie – na przynależność do grupy urodzonych przestępców) i Alphonse Bertillon (jedenaście pomiarów przeprowadzanych na ciałach recydywistów w gabinetach prefektury paryskiej policji pozwalała na policyjną kontrolę nad społeczeństwem i założenie panoptycznego archiwum). W czasie, który tym dawnym naukowcom wystarczyłby na wykreślenie jednej prostej biegnącej od czoła do szczęki albo od knykcia do kciuka, algorytmy Google, Facebooka i innych potentatów Internetu oraz elektroniki oplatają ludzkie twarze i ciała tysiącem przecinających się linii. Choć daleko tym operacjom do analogowego warsztatu starych fizjonomistów, idea sprowadza się do tego samego: opanowania ludzkiego ciała. Właśnie ten aspekt ponurej pracy komputerowych algorytmów w toczonych przez ostatnie pięć lat dyskusjach został całkowicie przeoczony.

Brak komentarzy:

Prześlij komentarz