W Polsce są już algorytmy wpływające na nasze życie, które znajdują się poza kontrolą instytucji czy organizacji społecznych – mówi Janowi Stradowskiemu dr Alek Tarkowski z Centrum Cyfrowego, jeden z twórców raportu „AlgoPolska” ostrzegającego przed błędnie działającymi systemami informatycznymi.

WYWIAD:

Jan Stradowski, Focus: W raporcie „AlgoPolska” mowa jest o zautomatyzowanym podejmowaniu decyzji. Czy chodzi tu o algorytmy sztucznej inteligencji?

dr Alek Tarkowski: Nie, to szersza kategoria. Nie zawsze trzeba stosować zaawansowane technologie, by podjąć decyzję tego typu. Już sześć lat temu Fundacja Panoptykon nagłośniła sprawę algorytmu sortującego osoby bezrobotne ubiegające się o wsparcie. Okazało się, że w tym przypadku była to po prostu tabelka z punktami. Urzędnik nie oceniał danej osoby sam, tylko dawał jej do wypełnienia kwestionariusz, zliczał punkty i od tego zależała decyzja.

Był to więc system analogowy. A czy w Polsce istnieją cyfrowe algorytmy oceniające ludzi, tak jak w USA albo Chinach?

– Sami się nad tym zastanawialiśmy, przygotowując nasz raport. Ogólne wrażenie jest takie, że w Polsce nie tworzy się algorytmów wpływających na nasze życie. Gdy pytaliśmy o to ludzi z biznesu czy konsultingu, odpowiadali najczęściej, że nad takimi rozwiązaniami pracują startupy. Często podawany przykład to wirtualny asystent działu sprzedaży Edward, opracowany przez polską firmę 2040.io. Ale poza tym specjaliści są przekonani, że takich rozwiązań u nas nie ma.

A w rzeczywistości?

– Algorytmy są dziś wszechobecne. Używamy np. platform, które rekomendują nam muzykę lub filmy. Dla większości z nas to po prostu udogodnienie, ale dla ludzi kultury oznacza już kształtowanie naszych gustów przez algorytmy opracowane w międzynarodowych korporacjach. One są w dużym stopniu poza kontrolą naszych instytucji czy organizacji społecznych.

No dobrze, ale zawsze możemy się pocieszać, że w Europie nie pojawią się rozwiązania takie jak w Chinach. Państwa demokratyczne nie zgodzą się na tak głębokie ingerowanie w prywatność i ocenianie obywatela.

– Czasami takie systemy mogą pojawić się bardzo dyskretnie. Gdy niedawno byłem w Berlinie, chciałem wypożyczyć rower miejski, który nie wymagał odstawiania go do stacji dokującej. Okazało się, że obsługuje go system wyprodukowany w Chinach. Gdy zainstalowałem aplikację, odkryłem w niej nieaktywny element służący do oceniania mnie jako rowerzysty. To wyglądało jak element chińskiego systemu Social Credit Score, umieszczony tam z wyprzedzeniem w celu testów. Z opisu wynikało, że aplikacja mogłaby ocenić np., czy przejeżdżam przez skrzyżowanie na czerwonym świetle. Europejskie systemy rowerowe nie mają takich opcji.

Ale mają je aplikacje do zamawiania przejazdów, takie jak Uber. Tam pasażerowie oceniają kierowców, a kierowcy – pasażerów.

– I znów – jest to ułatwienie, ale też ryzyko. Nie wiemy, który kierowca wystawił nam niską ocenę ani dlaczego. A gdy takich ocen zbierze się więcej, mogę mieć kłopot z zamówieniem przejazdów. To są oczywiście drobne historie, ale pokazują, że takie systemy przenikają do Europy i pojawiają się w demokratycznych państwach.

Czym to się różni od systemu punktów karnych dla kierowców albo rejestrów dłużników, takich jak BIK i KRD?

– To są instytucje, które już się przyjęły i dotyczą ściśle określonych sytuacji. Pierwszy problem pojawia się wtedy, gdy tego typu mechanizmów przybywa. Już dziś pracodawcy monitorują, w jaki sposób pracownik korzysta z mediów społecznościowych, choć są to raczej kontrole wyrywkowe. W Warszawie jeżdżą już samochody, które automatycznie sprawdzają poprawność parkowania za pomocą kamer i analizy obrazu z nich, odczytując automatycznie m.in. numery rejestracyjne.

To nie wydaje się specjalnie groźne.

– Bo nie jest. Jedno takie rozwiązanie nie oznacza dużej zmiany. Nowością jest to, gdy takich elementów jest coraz więcej i zostają połączone w jeden system działający automatycznie.

Ale czy automatyzacja jest sama w sobie czymś złym? Gdy ludzie podejmują decyzje, często są subiektywni, podatni na sugestie czy uprzedzenia.

– Oczywiście. Współpracujemy m.in. z prawnikiem dr. Kamilem Mamakiem, który uważa, że w sądownictwie algorytmy poprawią sytuację, zwłaszcza w prostych sprawach. Gdy się przeanalizuje decyzje podejmowane przez sędziów, widać w nich dużą uznaniowość. Na werdykt wpływa np. pora dnia albo czas, jaki minął od momentu, kiedy sędzia miał przerwę w pracy. Na pewno więc lepiej by było, gdyby to był bardziej obiektywny zautomatyzowany system. Jednak na drugiej szali mamy przykłady algorytmów, które też są skrajnie nieobiektywne i popełniają rażące błędy.

Algorytm można skorygować.

– Temu ma służyć m.in. krytyka organizacji pozarządowych. Zawsze mamy nadzieję, że jeśli wskażemy błędy w działaniu algorytmu, zostanie on udoskonalony. System odczytujący automatycznie numery rejestracyjne początkowo nie reagował na rejestracje aut elektrycznych. Ich kierowcy mogli więc łamać przepisy, a fotoradar tego nie rejestrował. Gdy wyszło to na jaw, błąd poprawiono. Podobnie ewolucja wygląda w medycynie. Kilka lat temu mówiono, że algorytmy lepiej niż lekarze oceniają wyniki badania mammograficznego. Potem się okazało, że jednak nie są takie dobre. Naukowcy wzięli się do pracy i w efekcie dziś mamy doskonalsze systemy diagnostyczne.

W raporcie apelujecie jednak, by algorytmy od początku projektować tak, aby były jak najbardziej obiektywne.

– To ma kluczowe znaczenie w przypadku usług publicznych, takich jak kryteria przyznawania świadczeń pomocy społecznej czy przydziału dzieci do szkół. Trzeba poświęcić wiele uwagi, by taki system nikogo nie skrzywdził. Obiektywność powinna w tym przypadku oznaczać przejrzystość procesu decyzyjnego. Powinniśmy mieć prawo do informacji, dlaczego algorytm podjął taką a nie inną decyzję, otrzymujemy wynik, ale nie wiemy, co się stało w środku.

SPOŁECZEŃSTWO ZAUTOMATYZOWANE DECYZJE – ALGORYTMY PO POLSKU

W naszym państwie wciąż niewiele decyzji jest podejmowanych przez systemy automatyczne.

Można jednak znaleźć takie przypadki, które budzą wątpliwości dotyczące bezstronności i skuteczności takich algorytmów. Oto przykłady zaczerpnięte z raportu „AlgoPolska”:

Profilowanie bezrobotnych – algorytm dzielił wszystkie zarejestrowane osoby nieaktywne zawodowo na trzy grupy różniące się stopniem gotowości do podjęcia zatrudnienia i rodzajem pomocy, jaką otrzymają z urzędu pracy. W trakcie rozmowy z urzędnikiem wypowiedzi bezrobotnego dopasowywane były do specjalnego klucza i punktowane, po czym przyznawano mu określony profil.

Procedurę uznano za niekonstytucyjną i w zeszłym roku wycofano z użycia. Przydzielanie dzieci do żłobków – w 2018 r. we Wrocławiu źle zaprogramowany algorytm sprawił, że do placówki nie dostały się dzieci, którym przysługiwało miejsce. Ze względu na brak informacji o działaniu systemu rodzice zarzucali mu nieprzejrzyste i krzywdzące podejmowanie decyzji w sytuacji, gdy liczba żłobków była niewystarczająca. Analiza podatków – od 2017 r. Krajowa Administracja Skarbowa ma system informatyczny analizujący przepływy podatkowe w bankach, mający służyć zwalczaniu nadużyć VAT-owskich. Jeśli algorytm uzna, że dana firma może dopuszczać się wyłudzeń, jej konto bankowe jest blokowane bez konieczności przeprowadzenia postępowania dowodowego.

Decyzje kredytowe – banki powszechnie stosują algorytmy oceniające zdolność kredytową klientów. Szczegóły są chronione tajemnicą gospodarczą, ale dzięki nowemu prawu każdy klient będzie mógł dowiedzieć się, jakie dane miały wpływ na decyzję w jego sprawie. Polska jako pierwsza wprowadziła takie rozwiązanie prawne. Przydział spraw dla sędziów – od 2018 roku algorytm określa, który sędzia sądu powszechnego otrzyma konkretną sprawę do rozpatrzenia. Zdaniem Ministerstwa Sprawiedliwości ma to zwiększyć bezstronność i transparentność polskich sądów. Z raportów wynika jednak, że system działa wadliwie. Niektórzy sędziowie są przeciążeni pracą, inni zaś nie są wybierani przez długi czas.

Źródło:  focus.pl

Podobne wpisy