Newsy

Oparte na sztucznej inteligencji systemy oceny obywateli mogą prowadzić do wielu nadużyć. Unijne prawo ma ich zakazać

2023-02-27  |  06:30

– W przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej – mówi Michał Nowakowski, prawnik z kancelarii Maruta Wachta. Jak zauważa, w Polsce nie ma w tej chwili przepisów, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów AI do oceny obywateli, więc ich prywatność chronią ogólne przepisy konstytucyjne i dotyczące praw człowieka. Tego typu systemy w rękach przestępców mogą być poważnym zagrożeniem. Jak to działa w praktyce, pokazuje przykład Chin.

Scoring społeczny – czyli wdrażany obecnie w Chinach tzw. system zaufania społecznego – to system monitorowania i oceniania zachowań obywateli pod kątem zgodności z prawem i zasadami współżycia społecznego.

– Przykładowo za działanie na rzecz partii rządzącej w Chinach dostajemy dodatkowe punkty, a w przypadku wykroczenia albo działania wbrew wartościom wyznawanym przez partię są punkty ujemne. W konsekwencji, jeżeli będziemy mieć określony poziom punktów, wyższy lub niższy, możemy uzyskać jakieś benefity albo w drugą stronę – mieć problem z dostępem do usług administracji czy uzyskaniem kredytu. W ten właśnie sposób ma działać scoring społeczny w Chinach, natomiast dzisiaj nie wiemy tak naprawdę, co za tym wszystkim stoi – mówi agencji Newseria Biznes Michał Nowakowski.

System opiera się na bazach danych, do których trafiają informacje m.in. z organów administracji publicznej, sądów, państwowych rejestrów, ale również z monitoringów miejskich czy aplikacji mobilnych.

– Scoring społeczny w Chinach ewoluuje, od kilkunastu lat są prowadzone różnego rodzaju prace, które zmierzają do tego, żeby wybrać optymalny model, oczywiście z punktu widzenia państwa, ale niekoniecznie obywateli czy przedsiębiorstw – podkreśla prawnik.

Chiński system zaufania społecznego odnosi się do niemal każdej dziedziny życia. Obywatele mają naliczane punkty ujemne m.in. za nieodpowiednie zachowanie, niszczenie mienia publicznego, opóźnienie w zapłacie podatków i składek na ubezpieczenie społeczne, wykroczenia drogowe i uczestnictwo w protestach, które nie zostały uznane przez władze za legalne. System wkracza nawet w sferę prywatną, ponieważ ujemne punkty można dostać np. za zaniedbywanie rodziny albo szerzenie nieprawdziwych informacji na chińskim komunikatorze WeChat. Pozytywnie punktowana jest za to np. praca społeczna, działania na rzecz partii rządzącej i wysokie lokaty w zawodach sportowych.

Wysoka punktacja jest źródłem nobilitacji i benefitów, do których zalicza się np. możliwość posłania dzieci do dobrych szkół. Natomiast obywatele z niską oceną muszą się liczyć z utrudnieniami w codziennym życiu, takimi jak np. problemy z otrzymaniem kredytu czy dostępem do usług. Co istotne, dostęp do chińskiego systemu zaufania społecznego mają nie tylko instytucje rządowe, ale i podmioty prywatne. To zaś budzi duże kontrowersje, ponieważ może prowadzić wprost do dyskryminacji obywateli na wielu płaszczyznach ich życia.

– Z punktu widzenia przeciętnego człowieka to jest ogromne naruszenie prywatności, ponieważ scoring społeczny jest też połączony z kwestią identyfikacji biometrycznej, w tym wykorzystania np. biometrii behawioralnej. Już dzisiaj w Chinach zainstalowana jest ogromna liczba kamer, które monitorują zachowania tamtejszych obywateli, dzięki czemu państwo jest w stanie kontrolować, dodawać albo odejmować im punkty – mówi Michał Nowakowski.

Oprócz zwykłych obywateli chińskim systemem scoringu objęci są też przedsiębiorcy, którzy mają odrębny system oceniania i naliczania dodatnich i ujemnych punktów. To zaś może stanowić wyzwanie i problem dla zagranicznych podmiotów, które planują ekspansję na tamtejszym rynku.

W Chinach przedsiębiorstwa, które nie realizują określonych założeń, mogą mieć trudności np. z uzyskaniem dodatkowego finansowania czy w ogóle z wejściem na rynek. Z punktu widzenia państwa jest to idealny sposób na to, żeby trzymać w ryzach tych niepokornych – mówi prawnik z kancelarii Maruta Wachta.

Jak wskazuje, takie profilowanie obywateli i firm wspiera coraz większa skuteczność systemów sztucznej inteligencji i uczenia maszynowego, które mogą posłużyć do identyfikacji biometrycznej i behawioralnej.

– Sztuczna inteligencja w rękach państwa może być ogromnym zagrożeniem. Wszystko zależy od tego, jak państwo będzie chciało ją wykorzystać – mówi Michał Nowakowski. – Do tego, żeby ocenić, czy w Polsce są albo będą wykorzystywane tego typu systemy, potrzebujemy określonych rozwiązań prawnych, które pozwolą nam jako obywatelom na uzyskanie informacji na ten temat. Oczywiście możemy robić to w ramach już istniejących pytań, które zadajemy instytucjom państwowym, natomiast nie zawsze uzyskamy określoną odpowiedź. Ważne jest też w tym kontekście to, że niektóre organy czy instytucje zaczynają już wykorzystywać tego typu systemy.

Ekspert zauważa, że w Polsce nie obowiązują w tej chwili przepisy, które w sposób precyzyjny regulowałyby zasady wykorzystywania systemów sztucznej inteligencji. Prywatność obywateli przed stosowaniem tego typu praktyk chronią art. 32. i 33 Konstytucji RP oraz art. 20 do 26 Karty praw podstawowych, które traktują o równości i zakazie dyskryminacji.

– Państwo, bazując na istniejących przepisach zarówno o ochronie danych osobowych, jak i Konstytucji, zasadniczo nie powinno wykorzystywać wrażliwych informacji do przyznawania albo odbierania świadczeń. Natomiast wprost takiego zakazu w tej chwili nie mamy – wyjaśnia prawnik. – To ma się zmienić z wejściem w życie unijnego rozporządzenia w sprawie sztucznej inteligencji, które w art. 5 ma wprost zakazywać stosowania scoringu społecznego, czyli dokonywania oceny wiarygodności obywatela pod kątem pewnych cech wrażliwych, np. tego, z jaką partią sympatyzuje albo jaką ma orientację seksualną. To ma być zakazane, ale oczywiście te przepisy jeszcze się tworzą i ich ostateczny kształt nie jest jasny.

Unijny Akt o sztucznej inteligencji (Artificial Intelligence Act), który ma wdrożyć bardziej precyzyjne regulacje dotyczące AI, w aktualnym kształcie zakazuje profilowania obywateli. Prace nad dokumentem, który został opublikowany przez Komisję Europejską w kwietniu 2021 roku, trwają. Zdaniem eksperta nowej regulacji, jeśli zostanie przyjęta w takim kształcie, będzie towarzyszyć szereg wątpliwości, chociażby dotyczących tego, które istniejące i stosowane systemy zostaną zaliczone do tej kategorii i co wówczas z nimi zrobić. Innym ważnym wyzwaniem będzie też kwestia ochrony prywatności i danych osobowych. Co istotne, jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań, która może w przyszłości wywrzeć wpływ na ich rozwój i ustawodawstwo także w innych krajach, poza Unią Europejską.

– Myślę, że w przyszłości państwo będzie mogło dokonywać oceny wiarygodności obywatela z użyciem systemów sztucznej inteligencji, ale tylko w pewnym, bardzo ograniczonym zakresie. Jak będzie to wyglądało, zależy od tego, jak zostaną zaprojektowane i wdrożone przepisy na poziomie Unii Europejskiej. Natomiast trzeba też pamiętać o tym, że niezwykle istotna w tym kontekście jest też kwestia pewnej przejrzystości, transparentności państwa względem obywatela – mówi Michał Nowakowski.

Czytaj także

Kalendarium

Więcej ważnych informacji

Newseria na XVI Europejskim Kongresie Gospodarczym

Jedynka Newserii

Jedynka Newserii

Finanse

Zmiany klimatu i dezinformacja wśród największych globalnych zagrożeń. Potrzeba nowego podejścia do zarządzania ryzykiem

Niestabilność polityczna i gospodarcza, coraz większa polaryzacja społeczeństwa, kryzys kosztów utrzymania, rosnąca liczba konfliktów zbrojnych i ryzyka cybernetyczne związane z rozwojem sztucznej inteligencji – to największe zagrożenia dla biznesu wskazywane w tegorocznym „Global Risks Report 2024”. Z raportu wynika, że obawy o bliską i dalszą przyszłość wciąż są zdominowane przez ryzyka klimatyczne i środowiskowe. Jednak w tym roku przykryły je niebezpieczeństwa związane z dezinformacją, wspieraną przez AI, która może wywoływać coraz większe niepokoje społeczne. – W tym roku na świecie 3 mld ludzi weźmie udział w wyborach, więc konieczność zaradzenia temu ryzyku staje się coraz pilniejsza – podkreśla Christos Adamantiadis, CEO Marsh McLennan w Europie.

Ochrona środowiska

Ciech od czerwca będzie działać jako Qemetica. Chemiczny gigant ma globalne aspiracje i nową strategię na sześć lat

Globalizacja biznesu, w tym możliwe akwizycje w Europie i poza nią – to jeden z głównych celów nowej strategii Grupy Ciech. Przedstawione plany na sześć lat zakładają także m.in. większe wykorzystanie patentów, współpracę ze start-upami w obszarze czystych technologii i przestawienie biznesu na zielone tory. – Mamy ambitny cel obniżenia emisji CO2 o 45 proc. do 2029 roku – zapowiada prezes spółki Kamil Majczak. Nowej strategii towarzyszy zmiana nazwy, która ma podsumować prowadzoną w ostatnich latach transformację i lepiej podkreślać globalne aspiracje spółki. Ciech oficjalnie zacznie działać jako Qemetica od czerwca br.

Finanse

72 proc. firm IT planuje podwyżki. W branży wciąż ogromna jest różnica w wynagrodzeniach kobiet i mężczyzn

W ubiegłym roku rynek pracy IT był znacznie mniej dynamiczny niż w poprzednich latach – wynika z „Raportu płacowego branży IT w 2024” Organizacji Pracodawców Usług IT. Przy wysokim poziomie podwyżek specjaliści rzadziej zmieniali pracę, ale niektórych zmusiły do tego cięcia w zatrudnieniu wynoszące w zależności od wielkości firmy od 12 do 26 proc. Ten rok zapowiada się bardziej optymistycznie: 61 proc. przedsiębiorstw planuje zwiększać zatrudnienie, a 72 proc. – pensje. Eksperci zwracają uwagę na wciąż duży rozstrzał między wynagrodzeniami kobiet i mężczyzn w tej branży.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.