„Obserwujemy cię!”. Takie ostrzeżenie usłyszało od Policji w Chicago ponad 400 osób, które znajdują się na tzw. „Gorącej Liście”. Lista mająca na celu identyfikację ludzi, którzy teoretycznie zdolni są do popełnienia brutalnego przestępstwa, utworzono za pomocą algorytmu prawdopodobieństwa. Bierze pod uwagę wiele czynników, np. znajomych danej osoby, ich historię aresztowań oraz, czy w przeszłości którykolwiek z tych znajomych był postrzelony.
Takie algorytmy powodują pojawianie się wielu niewygodnych pytań. Kto jest na tej liście i dlaczego? Czy bierze on pod uwagę rasę, płeć, wykształcenie i inne czynniki osobiste? Podczas gdy w więzieniach amerykańskich większość stanowią murzyni i latynosi, to czy algorytm uwzględnia ich znajomych o tym samym kolorze skóry?
Algorytmy te są chętnie wykorzystywane i budzą coraz większe zainteresowanie. Jednak są nierozerwalnie związane z pewnym ryzykiem. Ludzie nie są bezbłędni, a drobne pomyłki wprowadzone do maszyn mogą zostać zeskalowane i zautomatyzowane. Nasuwa się zatem pytanie: jak będziemy funkcjonować w świecie coraz bardziej pochłanianym przez „analizę zachowań jednostek”, która przewidywać będzie rasę, religię, płeć, wiek, orientację seksualną, status zdrowotny i wiele innych czynników?
Ludzie nie są bezbłędni, a drobne pomyłki wprowadzone do maszyn mogą zostać skalowane i zautomatyzowane.
Można śmiało założyć, że wiele osób nie czuje się zbyt dobrze z tym, w jaki sposób Policja w Chicago stworzyła „Gorącą Listę” – nawet jeśli intencje kryjące się za algorytmem były w stu procentach dobre. Aby korzystać z uczących się maszyn i danych publicznych z rozsądkiem, należy przeprowadzić debatę, co nauczyć maszyny i jak wykorzystać ich wyniki.

Uczące się maszyny
Większość ludzi posiada intuicyjną wiedzę na temat kategorii dotyczących rasy, religii, czy płci, jednak zapytani o bardziej precyzyjne zdefiniowanie tych pojęć, czuli się przyciśnięci do muru, nie wiedząc, co odpowiedzieć. Ludzie nie potrafią obiektywnie ocenić, jakiej rasy jest dana osobowość. Według definicji, rasa to wytwór społeczeństwa wynikający z połączenia zmiennych i niezmiennych cech, takich jak kolor skóry, religia, pochodzenie, czy dieta.
W wyniku tego, określenie przynależności danej osoby do grupy rasowej zmienia się wraz z upływem czasu (np. w Ameryce Południowej uważano kiedyś, że Włosi mają czarny kolor skóry). Tak więc dana jednostka może uważać się dzisiaj za przedstawiciela jednej rasy, a dekadę później do innej. Ta niejednoznaczność w precyzyjnym określaniu czynników, takich jak reprezentacja rasowa stanowi problem dla analizy osobowości.
Każdy program zaprojektowany do przewidywania, manipulacji i wyświetlania kategorii rasowych musi dokonywać operacjonalizacji danych zarówno na potrzeby procesów wewnętrznych, jak i społeczeństwa. Nauczanie maszyn to jeden z najbardziej efektywnych sposobów przewidywania, ponieważ maszyny uczą się od ludzi z dostarczanych przykładów, a nie określanych z góry zasad.
Załóżmy, że programista buduje algorytm, który perfekcyjnie przewiduje rasę na podstawie kategorii znanych dla przeciętnego Amerykanina – nazywane jest to „testem wspólnej wiedzy”. Pomimo tego, wiele uzyskanych wyników będzie wyglądać dziwnie, jeśli spojrzymy na nie z innej perspektywy. Dla przykładu, wielu Brazylijczyków uważanych za osoby o białym kolorze skóry, w Stanach Zjednoczonych rozpoznanych zostanie jako osoby czarne.
Wielorasowi Amerykanie oraz jednostki z obszarów, takich jak Indie, Turcja, czy Izrael często doświadczają kategoryzacji rasowej. Algorytm uczący się na błędach ludzkich, również źle rozpozna rasę, przez co powstanie konflikt. W efekcie, program traktuje rasy tak samo, jak jego twórca – nie tak jak indywidualna jednostka widzi sama siebie. Być może nie jest to duży problem dla firm marketingowych lub sieci społecznościowych. Jednak w przypadku Departamentu Policji w Chicago, a także innych aplikacji państwowych, błędy i złe oceny mogą mieć poważne konsekwencji w większej skali.
Jak używamy danych
W skali indywidualnej, każdy algorytm do analizy osobowości posiada błędy. Człowiek jest stworzeniem wieloaspektowym i złożonym, więc nie zawsze pasuje do sztywno ustalonych grup. Niemniej jednak, jeśli predykcje na poziomie jednostki są agregowane, mogą skutkować lepszym zrozumieniem całych grup, pomóc identyfikować rozbieżności oraz wywierać lepsze decyzje odnośnie zmiany naszego społeczeństwa na lepsze.
Jeśli więc pukanie do drzwi potencjalnego kryminalisty jest złe, czy mamy jakieś alternatywy?
Algorytm Policji w Chicago posiada opcję tworzenia specjalnych map, pokazujących lokalizacje podwyższonego ryzyka. Inne jurysdykcje policyjne (m.in. Los Angeles, Atlanta, Santa Crus) również korzystają z podobnego rozwiązania, nazywanego PredPol. Narzędzie pozwala na wysyłanie patroli w miejsca o zwiększonej aktywności przestępczej, bez konieczności przetwarzania danych osobistych. Pod uwagę brane są tylko typy, miejsca i czas przestępstw.
Ale czy tworzenie profili na podstawie lokalizacji również nie jest dyskryminacją? Czy Policja zatrzymuje i wystawia więcej mandatów na obszarach o podwyższonym ryzyku? Czy jeśli mieszkam w ubogiej dzielnicy, to mam spodziewać się częstszych przesłuchań niż osoby żyjące w bardziej zamożnych obszarach miasta? Czy łatwa do przewidzenia obecność policjantów na obszarach zagrożonych nie spowoduje występowania przestępstw w dzielnicach, które nie są odpowiednio patrolowane, a do tej pory nie miały problemu z przestępczością?
Istnieje duża szansa, że społeczeństwo uzyska więcej pomocy niż szkód.
Prawdopodobnie jest to dobre rozwiązanie. Strategiczne rozmieszczenie Policji oraz współpraca ze społeczeństwem może zapewnić zmniejszenie ilości przestępstw oraz lepsze warunki życia dla mieszkańców. W przeciwieństwie do analizy osobowości, algorytm dyskryminuje wyniki w mniejszym stopniu. Narzędzie PredPol spowodowało kilkunastoprocentowy spadek przestępczości w miastach, w których go wprowadzono. Jeśli chodzi o Wydział Policji w Chicago, nie opublikował on jeszcze wyników efektywności Gorącej Listy.
Powyższe modele są doskonałym przykładem, że analiza osobowości nie jest jedyną opcją. Zanim zaczniemy szukać potencjalnych przestępców i pukać do ich drzwi, musimy rozważyć najpierw etykę naszego podejścia – nie tylko skuteczność rozwiązania.

Niewygodne, ale konieczne
Rozmawianie o błędach nie jest przyjemne, ale nie możemy omijać tej dyskusji w przypadku uczących się maszyn. Aby uniknąć pogłębiania stereotypów i naruszania praw osobistych, należy często rozmawiać o błędach, które będą uwzględniane przez maszyny szukające i kategoryzujące ludzi.
Rozważania etyczne dotyczące powyższych zagadnień stanowią istotny problem w środowisku akademickim. Tworzone są nowe szkolenia oraz spotkania, np. FAT-ML, na których poruszane są referaty i dyskusje na ten temat.
Łatwo jest wyobrazić sobie skuteczność algorytmu Wydziału Policji w Chicago, gdyby używany był w rozsądny sposób. Łatwo jest także wyobrazić sobie czarny scenariusz: co jeśli senator Joe McCarthy miałby dostęp do analizy osobowych w latach 1940 – 50? Co jeśli dzisiejsze państwa nie uznające homoseksualizmu użyły by tej technologi do wyszukania jednostek łamiących prawo?
Są to kłopotliwe scenariusze, ale nie wystarczają one do porzucenia tej technologi. Uczące się maszyny mogą być wykorzystane przez naukowców oraz polityków do szukania odpowiedzi na ważne pytania. W ten sposób, mogą podejmować na ich podstawie odpowiedniejsze działania w stosunku do jednostek lub społeczeństwa.
Podobnie jak wiele innych technologii, uczenie maszyn ma wartość neutralną. Tak czy inaczej, ostateczne wnioski odzwierciedlać będą problemy, preferencje i światopogląd ich twórców. A co ty sądzisz o sztucznej inteligencji?
źródło: techcrunch.com