Mówi: | dr Michał Nowakowski |
Funkcja: | prawnik |
Firma: | kancelaria Maruta Wachta |
Oparte na sztucznej inteligencji systemy oceny obywateli mogą prowadzić do wielu nadużyć. Unijne prawo ma ich zakazać
– W przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej – mówi Michał Nowakowski, prawnik z kancelarii Maruta Wachta. Jak zauważa, w Polsce nie ma w tej chwili przepisów, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów AI do oceny obywateli, więc ich prywatność chronią ogólne przepisy konstytucyjne i dotyczące praw człowieka. Tego typu systemy w rękach przestępców mogą być poważnym zagrożeniem. Jak to działa w praktyce, pokazuje przykład Chin.
Scoring społeczny – czyli wdrażany obecnie w Chinach tzw. system zaufania społecznego – to system monitorowania i oceniania zachowań obywateli pod kątem zgodności z prawem i zasadami współżycia społecznego.
– Przykładowo za działanie na rzecz partii rządzącej w Chinach dostajemy dodatkowe punkty, a w przypadku wykroczenia albo działania wbrew wartościom wyznawanym przez partię są punkty ujemne. W konsekwencji, jeżeli będziemy mieć określony poziom punktów, wyższy lub niższy, możemy uzyskać jakieś benefity albo w drugą stronę – mieć problem z dostępem do usług administracji czy uzyskaniem kredytu. W ten właśnie sposób ma działać scoring społeczny w Chinach, natomiast dzisiaj nie wiemy tak naprawdę, co za tym wszystkim stoi – mówi agencji Newseria Biznes Michał Nowakowski.
System opiera się na bazach danych, do których trafiają informacje m.in. z organów administracji publicznej, sądów, państwowych rejestrów, ale również z monitoringów miejskich czy aplikacji mobilnych.
– Scoring społeczny w Chinach ewoluuje, od kilkunastu lat są prowadzone różnego rodzaju prace, które zmierzają do tego, żeby wybrać optymalny model, oczywiście z punktu widzenia państwa, ale niekoniecznie obywateli czy przedsiębiorstw – podkreśla prawnik.
Chiński system zaufania społecznego odnosi się do niemal każdej dziedziny życia. Obywatele mają naliczane punkty ujemne m.in. za nieodpowiednie zachowanie, niszczenie mienia publicznego, opóźnienie w zapłacie podatków i składek na ubezpieczenie społeczne, wykroczenia drogowe i uczestnictwo w protestach, które nie zostały uznane przez władze za legalne. System wkracza nawet w sferę prywatną, ponieważ ujemne punkty można dostać np. za zaniedbywanie rodziny albo szerzenie nieprawdziwych informacji na chińskim komunikatorze WeChat. Pozytywnie punktowana jest za to np. praca społeczna, działania na rzecz partii rządzącej i wysokie lokaty w zawodach sportowych.
Wysoka punktacja jest źródłem nobilitacji i benefitów, do których zalicza się np. możliwość posłania dzieci do dobrych szkół. Natomiast obywatele z niską oceną muszą się liczyć z utrudnieniami w codziennym życiu, takimi jak np. problemy z otrzymaniem kredytu czy dostępem do usług. Co istotne, dostęp do chińskiego systemu zaufania społecznego mają nie tylko instytucje rządowe, ale i podmioty prywatne. To zaś budzi duże kontrowersje, ponieważ może prowadzić wprost do dyskryminacji obywateli na wielu płaszczyznach ich życia.
– Z punktu widzenia przeciętnego człowieka to jest ogromne naruszenie prywatności, ponieważ scoring społeczny jest też połączony z kwestią identyfikacji biometrycznej, w tym wykorzystania np. biometrii behawioralnej. Już dzisiaj w Chinach zainstalowana jest ogromna liczba kamer, które monitorują zachowania tamtejszych obywateli, dzięki czemu państwo jest w stanie kontrolować, dodawać albo odejmować im punkty – mówi Michał Nowakowski.
Oprócz zwykłych obywateli chińskim systemem scoringu objęci są też przedsiębiorcy, którzy mają odrębny system oceniania i naliczania dodatnich i ujemnych punktów. To zaś może stanowić wyzwanie i problem dla zagranicznych podmiotów, które planują ekspansję na tamtejszym rynku.
– W Chinach przedsiębiorstwa, które nie realizują określonych założeń, mogą mieć trudności np. z uzyskaniem dodatkowego finansowania czy w ogóle z wejściem na rynek. Z punktu widzenia państwa jest to idealny sposób na to, żeby trzymać w ryzach tych niepokornych – mówi prawnik z kancelarii Maruta Wachta.
Jak wskazuje, takie profilowanie obywateli i firm wspiera coraz większa skuteczność systemów sztucznej inteligencji i uczenia maszynowego, które mogą posłużyć do identyfikacji biometrycznej i behawioralnej.
– Sztuczna inteligencja w rękach państwa może być ogromnym zagrożeniem. Wszystko zależy od tego, jak państwo będzie chciało ją wykorzystać – mówi Michał Nowakowski. – Do tego, żeby ocenić, czy w Polsce są albo będą wykorzystywane tego typu systemy, potrzebujemy określonych rozwiązań prawnych, które pozwolą nam jako obywatelom na uzyskanie informacji na ten temat. Oczywiście możemy robić to w ramach już istniejących pytań, które zadajemy instytucjom państwowym, natomiast nie zawsze uzyskamy określoną odpowiedź. Ważne jest też w tym kontekście to, że niektóre organy czy instytucje zaczynają już wykorzystywać tego typu systemy.
Ekspert zauważa, że w Polsce nie obowiązują w tej chwili przepisy, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów sztucznej inteligencji. Prywatność obywateli przed stosowaniem tego typu praktyk chronią art. 32. i 33 Konstytucji RP oraz art. 20 do 26 Karty praw podstawowych, które traktują o równości i zakazie dyskryminacji.
– Państwo, bazując na istniejących przepisach zarówno o ochronie danych osobowych, jak i Konstytucji, zasadniczo nie powinno wykorzystywać wrażliwych informacji do przyznawania albo odbierania świadczeń. Natomiast wprost takiego zakazu w tej chwili nie mamy – wyjaśnia prawnik. – To ma się zmienić z wejściem w życie unijnego rozporządzenia w sprawie sztucznej inteligencji, które w art. 5 ma wprost zakazywać stosowania scoringu społecznego, czyli dokonywania oceny wiarygodności obywatela pod kątem pewnych cech wrażliwych, np. tego, z jaką partią sympatyzuje albo jaką ma orientację seksualną. To ma być zakazane, ale oczywiście te przepisy jeszcze się tworzą i ich ostateczny kształt nie jest jasny.
Unijny Akt o sztucznej inteligencji (Artificial Intelligence Act), który ma wdrożyć bardziej precyzyjne regulacje dotyczące AI, w aktualnym kształcie zakazuje profilowania obywateli. Prace nad dokumentem, który został opublikowany przez Komisję Europejską w kwietniu 2021 roku, trwają. Zdaniem eksperta nowej regulacji, jeśli zostanie przyjęta w takim kształcie, będzie towarzyszyć szereg wątpliwości, chociażby dotyczących tego, które istniejące i stosowane systemy zostaną zaliczone do tej kategorii i co wówczas z nimi zrobić. Innym ważnym wyzwaniem będzie też kwestia ochrony prywatności i danych osobowych. Co istotne, jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań, która może w przyszłości wywrzeć wpływ na ich rozwój i ustawodawstwo także w innych krajach, poza Unią Europejską.
– Myślę, że w przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej. Natomiast trzeba też pamiętać o tym, że niezwykle istotna w tym kontekście jest też kwestia pewnej przejrzystości, transparentności państwa względem obywatela – mówi Michał Nowakowski.
Czytaj także
- 2025-05-13: Senat zajmie się ustawą o jawności cen lokali na sprzedaż. W praktyce ustawa obejmie tylko 12 proc. rynku
- 2025-05-19: Poparcie dla UE rekordowo wysokie, mimo wzrostu populizmu. Społeczeństwo oczekuje większego zaangażowania w kwestie bezpieczeństwa
- 2025-05-20: Rosyjskie surowce przestaną płynąć do UE. Spóźniony, ale ambitny i istotny plan ma być wdrożony do 2027 roku
- 2025-05-09: PE przedstawił swoje priorytety budżetowe po 2027 roku. Wydatki na obronność kluczowe, ale nie kosztem polityki spójności
- 2025-05-22: Negocjacje między UE i USA w sprawie ceł trwają. Przełom możliwy podczas czerwcowej wizyty Trumpa w Europie
- 2025-04-29: Rozwój sztucznej inteligencji drastycznie zwiększa zapotrzebowanie na energię. Rozwiązaniem są zrównoważone centra danych
- 2025-05-06: Przed Europą wiele lat zwiększonych wydatków na zbrojenia. To obciąży krajowe budżety
- 2025-04-11: Inwestorzy już odczuwają skutki wprowadzania ceł przez Donalda Trumpa. Finalnie najwięcej stracą na tej polityce Amerykanie
- 2025-04-09: Sejmowa Komisja Zdrowia ciągle czeka na projekt ustawy o reformie szpitali. Po raz trzeci nie został zatwierdzony przez rząd
- 2025-04-17: Niepewność powodowana amerykańskimi cłami wstrzymuje inwestycje. Firmy skupiają się na gromadzeniu zapasów
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Infrastruktura

Kolejne 9 mld zł trafi na budowę i modernizację sieci energetycznych. Inwestycje pomogą wyeliminować ryzyko blackoutu
Modernizacja i cyfryzacja sieci to dziś jeden z priorytetów spółek energetycznych w Polsce. Inwestycje te wzmacniają odporność systemu elektroenergetycznego i ograniczają ryzyko blackoutu, analogicznego do tego, który niedawno miał miejsce w Hiszpanii, ale też umożliwiają przyłączenie większej ilości zielonych źródeł energii. Enea pozyskała właśnie niskooprocentowaną pożyczkę w ramach KPO w wysokości 9 mld zł, które przeznaczy na budowę i modernizację sieci w północnej i zachodniej Polsce.
Rolnictwo
Gminne komisje szacują już straty w uprawach spowodowane przez majowe przymrozki. Najbardziej poszkodowani są sadownicy

W maju przygruntowe przymrozki pojawiły się na terenie niemal całego kraju. W niektórych miejscach temperatura obniżała się nawet do kilku stopni na minusie. Straty w rolnictwie i sadownictwie są bardzo duże, w niektórych regionach kraju sięgają nawet 90 proc. Ucierpiały nie tylko owoce i zboża, ale też część warzyw. Trwają już przygotowania naborów dla rolników, którzy ponieśli straty w wyniku przymrozków.
Polityka
Kampania prezydencka na ostatniej prostej. Temat ochrony zdrowia na drugim planie

Zdaniem przedstawicieli Naczelnej Izby Lekarskiej temat ochrony zdrowia w kampanii prezydenckiej, prowadzonej przed I turą wyborów, zszedł na dalszy plan. Kandydaci na najwyższy urząd w Polsce nie podawali – poza tematem składki zdrowotnej – w tym obszarze konkretów, a skupili się na kampanijnych ogólnikach i zapewnieniach. Zabrakło poruszenia wielu ważnych kwestii dotyczących m.in. przyszłości zawodów medycznych, kształcenia lekarzy, walki z agresją wobec medyków czy pomysłów na skrócenie kolejek do specjalistów i poprawy finansowania.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.