Mówi: | Marcin Trepka |
Funkcja: | partner, radca prawny |
Firma: | Baker McKenzie |
UE pracuje nad przepisami dotyczącymi sztucznej inteligencji. Część z nich może jednak zahamować jej rozwój
Rozwiązania z obszaru sztucznej inteligencji mogą być szansą na pobudzenie gospodarki i skok technologiczny. Z drugiej strony wiążą się też z zagrożeniami, a w Europie są już przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości prawne. Tymczasem na ten moment nie ma żadnego prawa, które regulowałoby ten obszar. Dlatego UE intensywnie pracuje nad przepisami, które w większości mają mocno prokonsumencki charakter. Partner w kancelarii Baker McKenzie Marcin Trepka wskazuje jednak, że zbyt sztywne przepisy zadziałają odwrotnie i zamiast pobudzić, ograniczą innowacyjność i rozwój sztucznej inteligencji.
– Elementem, który musi zostać uregulowany, jest przewidywalność systemów sztucznej inteligencji. Największe zagrożenie jest dostrzegane właśnie w tym braku przewidywalności, tzn. że algorytm będzie podejmował pewne decyzje w sposób niezamierzony przez tego, który go skonstruował. Systemy, które wiążą się z wysokim ryzykiem, to np. stosowana w medycynie sztuczna ręka chirurga, gdzie SI będzie de facto asystowała w operacji, czy autonomiczne samochody i drony. Tutaj nie może być miejsca na pomyłki – mówi agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie.
Sztuczna inteligencja jest w tej chwili jedną z najszybciej rozwijających się technologii i elementarną częścią cyfrowej transformacji. Według danych przytaczanych przez Komisję Europejską w ostatniej dekadzie liczba zgłoszeń patentowych w zakresie SI wzrosła aż o 400 proc. Szacuje się, że do 2025 roku wpływ tej technologii na gospodarkę będzie liczony w bilionach euro, a dzięki niej w Europie może powstać ok. 60 mln nowych miejsc pracy. Dlatego też KE chce zwiększyć prywatne i publiczne inwestycje w sztuczną inteligencję do 20 mld euro rocznie, a w marcu tego roku Parlament Europejski przyjął projekt europejskiej strategii w zakresie danych, które są podstawą dla rozwoju SI.
Szansę rozwojową w tej technologii dostrzega też rząd, który w styczniu br. przyjął „Politykę dla rozwoju sztucznej inteligencji w Polsce”. Określa ona ponad 200 zadań, których realizacja jest niezbędna do szerokiego wdrożenia SI m.in. w takich obszarach jak edukacja, nauka, sektor przedsiębiorstw i sektor publiczny oraz współpraca międzynarodowa.
Partner w kancelarii Baker McKenzie zauważa, że jednym z problemów we wdrażaniu SI jest jednak brak odpowiednich uregulowań prawnych. Termin „sztuczna inteligencja” jest bardzo pojemny, używany w odniesieniu do wielu różnych rozwiązań technologicznych, z którymi wiążą się też różne ryzyka prawne.
– Mamy bardzo dużą inicjatywę legislacyjną po stronie Komisji Europejskiej. Mamy trzy akty, które są obecnie procedowane. To jest akt o systemach sztucznej inteligencji, akt o usługach cyfrowych i akt o rynkach cyfrowych. One w założeniu na poziomie całej UE mają regulować sektor cyfrowy w zakresie wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji. Natomiast poza tym nie ma dziś specyficznej regulacji w tym obszarze – podkreśla radca prawny.
Pomimo braku konkretnych regulacji dotyczących SI do tego obszaru zastosowanie mają przepisy ogólne, prawo cywilne. Autonomiczne działanie sztucznej inteligencji stwarza bowiem szereg wyzwań dotyczących odpowiedzialności prawnej. W tej chwili nie istnieją przepisy regulujące, kto będzie ponosić tę odpowiedzialność np. za wypadek z udziałem autonomicznego samochodu czy decyzje podjęte przez algorytm bez autoryzacji, ale w tych sprawach UE wydała swoje opinie.
– Możemy sobie wyobrazić, że autonomiczny samochód albo dron uszkodzi czyjeś zdrowie czy w skrajnych przypadkach zabije człowieka. Jeśli zdarzy się taki wypadek, kto za to odpowiada? Tu również jest rezolucja Parlamentu Europejskiego przewidująca, że – na zasadzie ryzyka – tę odpowiedzialność ponosi ten, kto z tego rozwiązania korzysta, a na zasadzie dołożenia należytej staranności – ten, który go stworzył. To już jednak trochę inny rodzaj odpowiedzialności – mówi Marcin Trepka.
Z kolei w sprawach gospodarczych zastosowanie znajduje prawo konkurencji i ochrony konsumentów. Zdarzały się już bowiem przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości od strony prawnej.
– Przykładowo bardzo popularne są różnego rodzaju algorytmy monitorujące ceny, dostosowujące je do poziomu konkurencji. Komisja Europejska w 2017 roku – kiedy ogłaszała wyniki bardzo dużego badania sektorowego w zakresie e-commerce – pokazała, że 53 proc. przedsiębiorców działających na rynku monitoruje ceny konkurentów, a 67 proc. robi to z wykorzystaniem specjalnych algorytmów, z czego 78 proc. z nich dostosowuje na tej podstawie swoje ceny. I nagle może się okazać, że mamy ujednolicenie cen w całych sektorach, ponieważ wszyscy dostosowują się do swoich konkurentów. Tu pojawia się zagrożenie dla konkurencji na rynku w postaci tzw. cichej zmowy, która pomimo że w większości jurysdykcji nie jest zabroniona przez przepisy prawa konkurencji, może wywoływać skutki antykonkurencyjne analogiczne do antykonkurencyjnego porozumienia – ostrzega ekspert Baker McKenzie.
Bardzo duży wpływ na kształtowanie praktyk w tym zakresie będzie mieć projekt rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act), który Komisja Europejska zaprezentowała 21 kwietnia tego roku. Jeszcze przed tym Parlament powołał specjalną Komisję ds. Sztucznej Inteligencji w Erze Cyfrowej (AIDA), której zadaniem jest przeanalizowanie wpływu tej technologii na gospodarkę UE. W październiku ub.r. PE przyjął też trzy sprawozdania dotyczące sposobów na uregulowanie sztucznej inteligencji przez UE, aby wspierać innowacje, standardy etyczne i zaufanie do technologii. Jak wskazali europosłowie, przepisy regulujące ten obszar powinny być ukierunkowane przede wszystkim na człowieka.
– Wszystkie te regulacje są bardzo prokonsumenckie. Zdaniem niektórych obserwatorów ten konsument jest w tym przypadku nawet „nadchroniony”, czyli przyznajemy mu więcej ochrony, niż jest to wymagane. W ten sposób naturalnie ograniczamy innowacyjność, ponieważ im więcej musimy spełnić zasad, tym mniej możliwości eksperymentowania z technologią – mówi Marcin Trepka.
Procedowane obecnie regulacje dotyczące SI mają – jak wskazuje KE – przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji. Z jednej strony mają zbudować zaufanie i ograniczyć związane z nią ryzyka, z drugiej – wspierać inwestycje w SI i rozwój tej technologii. Partner w kancelarii Baker McKenzie zauważa jednak, że zbyt sztywne uregulowania zadziałają odwrotnie i ograniczą innowacyjność w tym obszarze.
– Po stronie przedsiębiorstw będzie to oznaczać spore utrudnienia. Po wejściu w życie tych przepisów wprowadzenie systemu SI do obrotu będzie związane z ogromnymi kosztami. Mamy nawet badania niemieckich ośrodków badawczych, które wyliczają, że małe i średnie przedsiębiorstwa chcące zainwestować w system sztucznej inteligencji będą musiały ponieść koszt nawet 400 tys. euro, co będzie kwotą zaporową. Przewiduje się, że koszty związane ze spełnieniem tych wszystkich ograniczeń mogą de facto zablokować rozwój – w przeciwieństwie do zamierzeń projektodawców rozporządzeń, które mają na celu zrównoważony rozwój systemów sztucznej inteligencji – ocenia radca prawny.
Według danych Eurostatu („Artificial intelligence in EU”) obecnie tylko 4 proc. przedsiębiorstw w Polsce i 7 proc. firm europejskich korzysta z systemów sztucznej inteligencji, ale nie ma wątpliwości, że ten odsetek będzie sukcesywnie wzrastać.
Czytaj także
- 2025-04-22: Duża zmiana w organizacji pracy w firmach. Elastyczność wśród najważniejszych oczekiwań pracowników
- 2025-04-15: 1 mln zł na innowacyjne rozwiązania dla miast. Granty mogą otrzymać naukowcy i start-upy
- 2025-04-09: Sejmowa Komisja Zdrowia ciągle czeka na projekt ustawy o reformie szpitali. Po raz trzeci nie został zatwierdzony przez rząd
- 2025-04-04: Wykluczenie cyfrowe szczególnie dotyka generacji silver. T-Mobile wystartował z darmowymi kursami z obsługi smartfona
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-04-07: Młode pokolenie szczególnie narażone na choroby cywilizacyjne. Unijni ministrowie zdrowia chcą przemodelować kwestie profilaktyki
- 2025-04-01: Europa zapowiada walkę o bezpieczeństwo lekowe. Wsparcie dla tych inwestycji ma się znaleźć w przyszłym budżecie UE
- 2025-03-25: Polityka powrotów nielegalnych imigrantów do ich krajów pochodzenia jest nieskuteczna. Trwają prace nad zmianami w prawie
- 2025-03-24: Odsetki to za mało. Parlament Europejski chce, by zamrożone rosyjskie aktywa stopniowo wspierały Ukrainę
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Prawo

Kwestie bezpieczeństwa priorytetem UE. Polska prezydencja ma w tym swój udział
– Polska prezydencja skierowała oczy Europy na obronność – przekonuje Magdalena Sobkowiak-Czarnecka z KPRM. Większość europejskich państw jest zgodna, że najważniejszą kwestią jest obecnie finansowanie bezpieczeństwa i obronności. Jednym z priorytetów białej księgi w sprawie obronności europejskiej będzie Tarcza Wschód, która obejmuje umocnienia wzdłuż wschodniej i północnej granicy Polski.
Problemy społeczne
Duża zmiana w organizacji pracy w firmach. Elastyczność wśród najważniejszych oczekiwań pracowników

Dotychczasowe modele organizacji pracy w firmach nie zawsze odpowiadają na wyzwania przyszłości. Ostatnie lata zmieniły zasady gry na rynku pracy i teraz elastyczność liczy się na nim bardziej niż kiedykolwiek wcześniej. Elastyczny model pracy staje się jednym z bardziej oczekiwanych benefitów, a dla firm jest to sposób na przyciągnięcie talentów. Kolejnym jest wykorzystanie innowacyjnych narzędzi technologicznych. To jednak wymaga zarówno od pracowników, jak i od pracodawców zaangażowania w ciągłe podnoszenie kompetencji.
Motoryzacja
Pożary pojazdów elektrycznych są rzadsze niż spalinowych. W powszechnym przekonaniu jest odwrotnie, bo brakuje edukacji

Trzydzieści pożarów aut elektrycznych i niemal 9,5 tys. pożarów aut spalinowych – to statystyki za ubiegły rok. Jak podkreślają eksperci, statystycznie pojazdy elektryczne płoną rzadziej niż spalinowe. W przeliczeniu na tysiąc zarejestrowanych pojazdów wskaźnik pożarów w przypadku elektryków wynosi 0,372, a w przypadku aut spalinowych 0,424. Specjaliści są zgodni co do tego, że w powszechnym obiegu brakuje rzetelnej wiedzy na temat samochodów elektrycznych i ich bezpieczeństwa pożarowego.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.