Mówi: | Marcin Trepka |
Funkcja: | partner, radca prawny |
Firma: | Baker McKenzie |
UE pracuje nad przepisami dotyczącymi sztucznej inteligencji. Część z nich może jednak zahamować jej rozwój
Rozwiązania z obszaru sztucznej inteligencji mogą być szansą na pobudzenie gospodarki i skok technologiczny. Z drugiej strony wiążą się też z zagrożeniami, a w Europie są już przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości prawne. Tymczasem na ten moment nie ma żadnego prawa, które regulowałoby ten obszar. Dlatego UE intensywnie pracuje nad przepisami, które w większości mają mocno prokonsumencki charakter. Partner w kancelarii Baker McKenzie Marcin Trepka wskazuje jednak, że zbyt sztywne przepisy zadziałają odwrotnie i zamiast pobudzić, ograniczą innowacyjność i rozwój sztucznej inteligencji.
– Elementem, który musi zostać uregulowany, jest przewidywalność systemów sztucznej inteligencji. Największe zagrożenie jest dostrzegane właśnie w tym braku przewidywalności, tzn. że algorytm będzie podejmował pewne decyzje w sposób niezamierzony przez tego, który go skonstruował. Systemy, które wiążą się z wysokim ryzykiem, to np. stosowana w medycynie sztuczna ręka chirurga, gdzie SI będzie de facto asystowała w operacji, czy autonomiczne samochody i drony. Tutaj nie może być miejsca na pomyłki – mówi agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie.
Sztuczna inteligencja jest w tej chwili jedną z najszybciej rozwijających się technologii i elementarną częścią cyfrowej transformacji. Według danych przytaczanych przez Komisję Europejską w ostatniej dekadzie liczba zgłoszeń patentowych w zakresie SI wzrosła aż o 400 proc. Szacuje się, że do 2025 roku wpływ tej technologii na gospodarkę będzie liczony w bilionach euro, a dzięki niej w Europie może powstać ok. 60 mln nowych miejsc pracy. Dlatego też KE chce zwiększyć prywatne i publiczne inwestycje w sztuczną inteligencję do 20 mld euro rocznie, a w marcu tego roku Parlament Europejski przyjął projekt europejskiej strategii w zakresie danych, które są podstawą dla rozwoju SI.
Szansę rozwojową w tej technologii dostrzega też rząd, który w styczniu br. przyjął „Politykę dla rozwoju sztucznej inteligencji w Polsce”. Określa ona ponad 200 zadań, których realizacja jest niezbędna do szerokiego wdrożenia SI m.in. w takich obszarach jak edukacja, nauka, sektor przedsiębiorstw i sektor publiczny oraz współpraca międzynarodowa.
Partner w kancelarii Baker McKenzie zauważa, że jednym z problemów we wdrażaniu SI jest jednak brak odpowiednich uregulowań prawnych. Termin „sztuczna inteligencja” jest bardzo pojemny, używany w odniesieniu do wielu różnych rozwiązań technologicznych, z którymi wiążą się też różne ryzyka prawne.
– Mamy bardzo dużą inicjatywę legislacyjną po stronie Komisji Europejskiej. Mamy trzy akty, które są obecnie procedowane. To jest akt o systemach sztucznej inteligencji, akt o usługach cyfrowych i akt o rynkach cyfrowych. One w założeniu na poziomie całej UE mają regulować sektor cyfrowy w zakresie wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji. Natomiast poza tym nie ma dziś specyficznej regulacji w tym obszarze – podkreśla radca prawny.
Pomimo braku konkretnych regulacji dotyczących SI do tego obszaru zastosowanie mają przepisy ogólne, prawo cywilne. Autonomiczne działanie sztucznej inteligencji stwarza bowiem szereg wyzwań dotyczących odpowiedzialności prawnej. W tej chwili nie istnieją przepisy regulujące, kto będzie ponosić tę odpowiedzialność np. za wypadek z udziałem autonomicznego samochodu czy decyzje podjęte przez algorytm bez autoryzacji, ale w tych sprawach UE wydała swoje opinie.
– Możemy sobie wyobrazić, że autonomiczny samochód albo dron uszkodzi czyjeś zdrowie czy w skrajnych przypadkach zabije człowieka. Jeśli zdarzy się taki wypadek, kto za to odpowiada? Tu również jest rezolucja Parlamentu Europejskiego przewidująca, że – na zasadzie ryzyka – tę odpowiedzialność ponosi ten, kto z tego rozwiązania korzysta, a na zasadzie dołożenia należytej staranności – ten, który go stworzył. To już jednak trochę inny rodzaj odpowiedzialności – mówi Marcin Trepka.
Z kolei w sprawach gospodarczych zastosowanie znajduje prawo konkurencji i ochrony konsumentów. Zdarzały się już bowiem przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości od strony prawnej.
– Przykładowo bardzo popularne są różnego rodzaju algorytmy monitorujące ceny, dostosowujące je do poziomu konkurencji. Komisja Europejska w 2017 roku – kiedy ogłaszała wyniki bardzo dużego badania sektorowego w zakresie e-commerce – pokazała, że 53 proc. przedsiębiorców działających na rynku monitoruje ceny konkurentów, a 67 proc. robi to z wykorzystaniem specjalnych algorytmów, z czego 78 proc. z nich dostosowuje na tej podstawie swoje ceny. I nagle może się okazać, że mamy ujednolicenie cen w całych sektorach, ponieważ wszyscy dostosowują się do swoich konkurentów. Tu pojawia się zagrożenie dla konkurencji na rynku w postaci tzw. cichej zmowy, która pomimo że w większości jurysdykcji nie jest zabroniona przez przepisy prawa konkurencji, może wywoływać skutki antykonkurencyjne analogiczne do antykonkurencyjnego porozumienia – ostrzega ekspert Baker McKenzie.
Bardzo duży wpływ na kształtowanie praktyk w tym zakresie będzie mieć projekt rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act), który Komisja Europejska zaprezentowała 21 kwietnia tego roku. Jeszcze przed tym Parlament powołał specjalną Komisję ds. Sztucznej Inteligencji w Erze Cyfrowej (AIDA), której zadaniem jest przeanalizowanie wpływu tej technologii na gospodarkę UE. W październiku ub.r. PE przyjął też trzy sprawozdania dotyczące sposobów na uregulowanie sztucznej inteligencji przez UE, aby wspierać innowacje, standardy etyczne i zaufanie do technologii. Jak wskazali europosłowie, przepisy regulujące ten obszar powinny być ukierunkowane przede wszystkim na człowieka.
– Wszystkie te regulacje są bardzo prokonsumenckie. Zdaniem niektórych obserwatorów ten konsument jest w tym przypadku nawet „nadchroniony”, czyli przyznajemy mu więcej ochrony, niż jest to wymagane. W ten sposób naturalnie ograniczamy innowacyjność, ponieważ im więcej musimy spełnić zasad, tym mniej możliwości eksperymentowania z technologią – mówi Marcin Trepka.
Procedowane obecnie regulacje dotyczące SI mają – jak wskazuje KE – przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji. Z jednej strony mają zbudować zaufanie i ograniczyć związane z nią ryzyka, z drugiej – wspierać inwestycje w SI i rozwój tej technologii. Partner w kancelarii Baker McKenzie zauważa jednak, że zbyt sztywne uregulowania zadziałają odwrotnie i ograniczą innowacyjność w tym obszarze.
– Po stronie przedsiębiorstw będzie to oznaczać spore utrudnienia. Po wejściu w życie tych przepisów wprowadzenie systemu SI do obrotu będzie związane z ogromnymi kosztami. Mamy nawet badania niemieckich ośrodków badawczych, które wyliczają, że małe i średnie przedsiębiorstwa chcące zainwestować w system sztucznej inteligencji będą musiały ponieść koszt nawet 400 tys. euro, co będzie kwotą zaporową. Przewiduje się, że koszty związane ze spełnieniem tych wszystkich ograniczeń mogą de facto zablokować rozwój – w przeciwieństwie do zamierzeń projektodawców rozporządzeń, które mają na celu zrównoważony rozwój systemów sztucznej inteligencji – ocenia radca prawny.
Według danych Eurostatu („Artificial intelligence in EU”) obecnie tylko 4 proc. przedsiębiorstw w Polsce i 7 proc. firm europejskich korzysta z systemów sztucznej inteligencji, ale nie ma wątpliwości, że ten odsetek będzie sukcesywnie wzrastać.
Czytaj także
- 2025-04-22: Duża zmiana w organizacji pracy w firmach. Elastyczność wśród najważniejszych oczekiwań pracowników
- 2025-04-15: 1 mln zł na innowacyjne rozwiązania dla miast. Granty mogą otrzymać naukowcy i start-upy
- 2025-04-09: Sejmowa Komisja Zdrowia ciągle czeka na projekt ustawy o reformie szpitali. Po raz trzeci nie został zatwierdzony przez rząd
- 2025-04-04: Wykluczenie cyfrowe szczególnie dotyka generacji silver. T-Mobile wystartował z darmowymi kursami z obsługi smartfona
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-04-07: Młode pokolenie szczególnie narażone na choroby cywilizacyjne. Unijni ministrowie zdrowia chcą przemodelować kwestie profilaktyki
- 2025-04-01: Europa zapowiada walkę o bezpieczeństwo lekowe. Wsparcie dla tych inwestycji ma się znaleźć w przyszłym budżecie UE
- 2025-03-25: Polityka powrotów nielegalnych imigrantów do ich krajów pochodzenia jest nieskuteczna. Trwają prace nad zmianami w prawie
- 2025-03-24: Odsetki to za mało. Parlament Europejski chce, by zamrożone rosyjskie aktywa stopniowo wspierały Ukrainę
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Handel

Niepewność gospodarcza rosnącym zagrożeniem dla firm. Sytuację pogarszają zawirowania w światowym handlu
Wojna handlowa i trudna sytuacja geopolityczna stanowią zagrożenie dla funkcjonowania firm. Niepewność sytuacji gospodarczej to obok wysokich kosztów pracowniczych najczęściej wskazywana bariera utrudniająca działalność. 60 proc. właścicieli i zarządzających firmami w Polsce uważa ją za największe zagrożenie. – Kryzysy są tyleż szokiem dla systemu, co szansą. Jeśli wykorzystamy nowo tworzące się sytuacje, mamy szansę wyjść wzmocnieni – ocenia Małgorzata Mroczkowska-Horne, dyrektor generalna Konfederacji Lewiatan.
Transport
Ataki cybernetyczne na kolej stają się coraz częstsze. Hakerzy zwykle chcą doprowadzić do paraliżu

W pierwszym kwartale tego roku hakerzy zaatakowali systemy sprzedaży biletów w polskiej i ukraińskiej kolei. Zagrożenia wiążą się jednak również z atakami na systemy zasilania i zarządzania ruchem. Wszystkie tego typu zdarzenia mają jeden cel – mniejszy lub większy paraliż transportu kolejowego, co w obecnej sytuacji geopolitycznej przekłada się na bezpieczeństwo strategiczne. W wielu przypadkach wciąż najsłabszym ogniwem jest człowiek – albo dlatego, że nienależycie chroni hasła i dostęp do urządzeń, albo dlatego, że nadane mu uprawnienia są nieadekwatnie szerokie w stosunku do realnych potrzeb.
Edukacja
Polska nauka potrzebuje różnych źródeł finansowania. Trwają rozmowy o zmianach w systemie

– Finansowanie polskiej nauki wymaga zmian, ale do tego potrzeba politycznej woli i odwagi – ocenia prof. dr hab. Grzegorz Mazurek, rektor Akademii Leona Koźmińskiego. Wśród propozycji wymienia stworzenie systemu zachęt dla biznesu do inwestowania w naukę i edukację, wyznaczenie strategicznych obszarów badań, na które będą trafiały fundusze, czy rozliczanie instytucji naukowych z wykorzystania publicznych pieniędzy. W ramach cyklu „Porozmawiajmy o polskiej nauce” MNiSW w ostatnich miesiącach prowadzi konsultacje ze środowiskiem akademickim i badawczym na temat stojących przed sektorem wyzwań i możliwych do wdrożenia rozwiązań, nie tylko dotyczących finansowania.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.