Mówi: | Michał Boni |
Funkcja: | adiunkt na Uniwersytecie SWPS, były minister cyfryzacji |
M. Boni: Potrzebujemy planu wdrożenia nowego aktu o sztucznej inteligencji. To może być zadanie polskiej prezydencji w UE
W środę 13 marca Parlament Europejski zatwierdził AI Act. To pierwsza tego typu regulacja tak szeroko obejmująca obszar sztucznej inteligencji. Celem nowych przepisów jest zbudowanie środowiska prawnego, które pozwoli na rozwój tej technologii, przy jednoczesnym poszanowaniu praw podstawowych, ochronie demokracji czy praworządności przed systemami wysokiego ryzyka. – Przy wielu artykułach, które niekoniecznie są interpretowalne łatwo i w spójny sposób, proponowałbym, żeby Komisja Europejska, ale to może być też polska rola podczas prezydencji, przygotowała plan wdrożenia regulacji o sztucznej inteligencji – ocenia były minister cyfryzacji Michał Boni.
Artificial Intelligence Act przewiduje m.in. skategoryzowanie zakazanych praktyk w zakresie rozwiązań AI, szczególnie tych, które zagrażają prawom obywateli. Zaliczono do nich m.in. używanie technik podprogowych oraz dyskryminujących, manipulujących zachowaniem ludzi lub wykorzystujących ich słabości Nowe przepisy zakażą stosowania systemów sztucznej inteligencji w zakresie tzw. social scoringu, czyli klasyfikacji punktowej obywateli. Ograniczą także korzystanie z systemów identyfikacji biometrycznej dla organów ścigania – w tym przypadku przewidują pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Ponadto będzie obowiązek wyraźnego oznaczania nieautentycznych lub zmanipulowanych obrazy, treści audio lub wideo.
– Trzeba zacząć od tego, że sztuczna inteligencja sama w sobie nie jest ani zła, ani dobra, jest neutralna. Zastosowania sztucznej inteligencji mogą być różnorakie i to często zależy od ludzi, państw i firm. Regulacje są potrzebne do tego, żeby zanalizować ryzyka, które mogą przynieść konkretne zastosowania sztucznej inteligencji – mówi agencji Newseria Biznes Michał Boni, adiunkt na Uniwersytecie SWPS, były minister cyfryzacji.
Kluczowa będzie ocena takiego ryzyka i potencjalnego wpływu na bezpieczeństwo obywateli.
– Jeśli te ryzyka są zbyt duże, to być może powinno być ograniczenie wprowadzania w życie danego rozwiązania, a jeśli są mniejsze, ale jakieś są jednak, to wtedy firma powinna przejść test sprawdzający, czy te ryzyka wpłyną na ludzi, społeczeństwo, środowisko zewnętrzne – mówi Michał Boni. – Takie testy zostały przygotowane przez grupę ekspertów zajmujących się m.in. etycznymi wymiarami sztucznej inteligencji. Więc to jest do okiełznania, tylko musimy podejść praktycznie od strony zastosowań i ryzyk, a nie od mówienia generalnego o sztucznej inteligencji.
W AI Act określono szczególne obowiązki dla systemów wysokiego ryzyka. Obszary, w których są one wykorzystywane, to m.in.infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych, np. wyborów. Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dodatkowo obywatele zyskają prawo do złożenia skargi dotyczących systemów SI.
Jak podkreśla ekspert, wyzwaniem przy tworzeniu tego typu aktów prawnych jest uniwersalność poszczególnych zapisów. Chodzi o to, by miały one zastosowanie także w przyszłości wobec nowych ryzyk, które nie są znane. Stąd wiele zapisów może wydawać się niejasnych.
– Przy wielu artykułach, które niekoniecznie są interpretowalne łatwo i w spójny sposób, ja bym proponował, żeby Komisja Europejska, ale to może być też polska rola podczas prezydencji, przygotowała ważny dokument, czyli plan wdrożenia regulacji o sztucznej inteligencji. To jest skomplikowane, bo niektóre rzeczy z tego aktu będą wchodziły w kilka miesięcy po przyjęciu, inne w rok, inne w półtora, inne w dwa lat, do trzech, więc to będzie trwało. Po to, żeby to było sensownie zrobione, to taki plan wdrażania powinien być przygotowany – ocenia Michał Boni. – Tam, gdzie różne rzeczy nie będą do końca jasne, powinniśmy pójść w stronę kodeksu dobrych praktyk. Czyli biznes między sobą powinien ustalać, razem z innymi partnerami, np. użytkownikami, jakie rozwiązanie jest dobre i trzyma się ducha prawa o sztucznej inteligencji, które między innymi ma chronić naszą podmiotowość.
Według firmy doradczej Deloitte, postępująca cyfryzacja gospodarki sprawia, że kolejne organizacje decydują się na zastosowanie narzędzi opartych na sztucznej inteligencji. Z raportu „Unlocking the power of AI” wynika, że ponad 90 proc. firm chce osiągnąć wyższy poziom dojrzałości w zakresie AI w trakcie najbliższych trzech lat. Tempo i realizacja ich planów jest jednak uzależniona od takich czynników jak: kwalifikacje personelu oraz zdolności danej organizacji do wdrożenia rozwiązań opartych na uczeniu maszynowym. Autorzy przytoczonego raportu szacują, że w ciągu dwóch najbliższych lat biznesowa wartość, która powstanie dzięki AI, może wynieść nawet 4,4 bln dol.
Wiele środowisk na etapie tworzenia nowego prawa wyrażało obawy, że wprowadzenie wspomnianych regulacji może spowolnić rozwój rynku sztucznej inteligencji. Takiej oceny nie podziela Michał Boni.
– Myślę, że rynek będzie się tak samo dynamicznie rozwijał jak teraz, dlatego że wiele firm już stosuje te zasady, mechanizmy, choćby analizy ryzyka, które są wpisane do tej regulacji. Natomiast na pewno będzie potrzebne dobre doradztwo, szczególnie dla małego biznesu, jak niektóre przepisy zinterpretować, ale też przede wszystkim, czy te zastosowania sztucznej inteligencji, które chcą wprowadzić, jakąś predykcję, przewidywanie w oparciu o dane tego, co z biznesem się może dziać, czy to tworzy jakieś ryzyka, czy nie – mówi były minister cyfryzacji. – W wielu wypadkach nie będzie w ogóle tworzyło żadnego ryzyka. Pamiętajmy, że ta regulacja wskazuje na systemy o wysokim poziomie ryzyka, ale jest ich między 10 a 15 proc. 85 proc. systemów sztucznej inteligencji funkcjonuje bez żadnego ryzyka, więc tu nie będzie jakiejś radykalnej, powszechnej zmiany.
Unijne rozporządzenie przewiduje powstanie Europejskiej Rady ds. Sztucznej Inteligencji. Ponadto w państwach członkowskich mają powstać organy krajowe zajmujące się tym zagadnieniem. Główne zadanie tych instytucji będzie skoncentrowane na skutecznym egzekwowaniu zapisów rozporządzenia w każdym z państw UE. Na poziomie krajowym będą powstawać również tzw. piaskownice regulacyjne. Ich celem będzie ułatwienie firmom rozwijania innowacji oraz przeprowadzania testów nowych rozwiązań przed oddaniem do użytku.
Sztuczna inteligencja to pojęcie bardzo szerokie, które w ujęciu teoretycznym pojawiło się w nauce już w 1956 roku za sprawą amerykańskiego informatyka Johna McCarthy’ego. Z czasem definiowano ją jako zdolność systemu do właściwej interpretacji danych, które pochodzą z różnych zewnętrznych źródeł, a także automatycznego uczenia się na podstawie zebranych informacji, a następnie wykonywania określonych zadań. Obecnie pojęcie „sztucznej inteligencji” jest wiązane z różnymi popularnymi rozwiązaniami w zakresie automatycznego tworzenia tekstów, grafik, tłumaczeń czy materiałów audiowizualnych. W rzeczywistości to dużo szersze pojęcie dotykające m.in. takich obszarów jak sieci neuronowe, uczenie maszynowe, przetwarzanie danych (w tym Big Data), rozpoznawania obrazów, dźwięków czy mowy, a także sztucznej twórczości.
Czytaj także
- 2025-05-27: SUV-y dominują rynek motoryzacyjny. Hyundai wprowadzi latem do sprzedaży nowy siedmioosobowy model
- 2025-05-21: Finansowanie Europejskiego Banku Inwestycyjnego wspiera rozwój OZE czy infrastruktury drogowej. Wśród nowych priorytetów bezpieczeństwo i obronność
- 2025-05-08: J. Scheuring-Wielgus: Napięcia geopolityczne wymagają silniejszego zjednoczenia państw Europy. To lekcja z II wojny światowej
- 2025-05-20: Rosyjskie surowce przestaną płynąć do UE. Spóźniony, ale ambitny i istotny plan ma być wdrożony do 2027 roku
- 2025-05-12: Parlament Europejski zdecydował ws. zasad handlu stalą z Ukrainą. Przedłużono liberalizację o kolejne trzy lata
- 2025-05-07: PE pracuje nad zmianą rozliczania redukcji emisji CO2 dla nowych aut. Producenci mogą uniknąć wysokich kar
- 2025-05-27: Parlament Europejski przeciwny centralizacji polityki spójności w UE. Apeluje o jej większą elastyczność
- 2025-05-22: Unijne programy szansą dla polskiego przemysłu zbrojeniowego. Wkrótce uruchomione będzie 150 mld euro na niskooprocentowane pożyczki
- 2025-04-29: Rozwój sztucznej inteligencji drastycznie zwiększa zapotrzebowanie na energię. Rozwiązaniem są zrównoważone centra danych
- 2025-04-22: Kwestie bezpieczeństwa priorytetem UE. Polska prezydencja ma w tym swój udział
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Polityka

Parlament Europejski przeciwny centralizacji polityki spójności w UE. Apeluje o jej większą elastyczność
Parlament Europejski sprzeciwia się pomysłowi centralizacji zarządzania polityką spójności w Unii Europejskiej. W maju br. większością głosów przyjął sprawozdanie na temat spójności gospodarczej i społecznej i jej przyszłości po 2027 roku. Zdecydowana większość grup politycznych jest za decentralizacją modelu polityki spójności, mówiąc stanowcze „nie” ograniczeniu roli władz regionalnych i lokalnych. Jednocześnie wskazuje na potrzebę uelastyczniania tej głównej polityki inwestycyjnej tak, by sprawnie można było reagować na ewentualne kryzysy i nowe wyzwania.
Bankowość
Globalny sektor finansowy mocniej otwiera się na blockchain. Nowe regulacje likwidują kolejne bariery na rynku

Coraz więcej banków i instytucji finansowych inwestuje w technologię blockchain. To przede wszystkim szansa na zwiększenie bezpieczeństwa transakcji, ich prywatności, ale też nowe możliwości weryfikacji tożsamości oraz przechowywania wartości. Jedną z najbardziej zaawansowanych platform opartych na technologii blockchain jest Ethereum – zdecentralizowany system umożliwiający tworzenie i wykonywanie smartkontraktów oraz aplikacji rozproszonych. O ile klasyczne łańcuchy bloków pełnią funkcję zdecentralizowanego rejestru transakcji, o tyle Ethereum wprowadza warstwę logiki wykonawczej, czyniąc z blockchaina uniwersalną platformę kontraktów samowykonalnych i aplikacji rozproszonych.
Konsument
Po debacie prezydenckiej wzrosło zainteresowanie woreczkami nikotynowymi. Niesłusznie mylone są z nielegalnymi w Polsce snusami

Debata prezydencka 23 maja br. pokazała, że Polacy nie wiedzą, czym są saszetki nikotynowe oraz snusy, a także czym się różnią. Sztab wyborczy Karola Nawrockiego podał, że kandydat na prezydenta podczas debaty przyjął snus. Sam Karol Nawrocki sprostował, że była to saszetka nikotynowa. Tymczasem różnica między oboma produktami jest ogromna. Snus zawiera tytoń, którego nie ma w saszetce, a jego sprzedaż w UE – z wyjątkiem Szwecji – jest zabroniona.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.