Newsy

UE pracuje nad przepisami dotyczącymi sztucznej inteligencji. Część z nich może jednak zahamować jej rozwój

2021-10-01  |  06:15

Rozwiązania z obszaru sztucznej inteligencji mogą być szansą na pobudzenie gospodarki i skok technologiczny. Z drugiej strony wiążą się też z zagrożeniami, a w Europie są już przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości prawne. Tymczasem na ten moment nie ma żadnego prawa, które regulowałoby ten obszar. Dlatego UE intensywnie pracuje nad przepisami, które w większości mają mocno prokonsumencki charakter. Partner w kancelarii Baker McKenzie Marcin Trepka wskazuje jednak, że zbyt sztywne przepisy zadziałają odwrotnie i zamiast pobudzić, ograniczą innowacyjność i rozwój sztucznej inteligencji.

 Elementem, który musi zostać uregulowany, jest przewidywalność systemów sztucznej inteligencji. Największe zagrożenie jest dostrzegane właśnie w tym braku przewidywalności, tzn. że algorytm będzie podejmował pewne decyzje w sposób niezamierzony przez tego, który go skonstruował. Systemy, które wiążą się z wysokim ryzykiem, to np. stosowana w medycynie sztuczna ręka chirurga, gdzie SI będzie de facto asystowała w operacji, czy autonomiczne samochody i drony. Tutaj nie może być miejsca na pomyłki – mówi agencji Newseria Biznes Marcin Trepka, radca prawny i partner w kancelarii Baker McKenzie.

Sztuczna inteligencja jest w tej chwili jedną z najszybciej rozwijających się technologii i elementarną częścią cyfrowej transformacji. Według danych przytaczanych przez Komisję Europejską w ostatniej dekadzie liczba zgłoszeń patentowych w zakresie SI wzrosła aż o 400 proc. Szacuje się, że do 2025 roku wpływ tej technologii na gospodarkę będzie liczony w bilionach euro, a dzięki niej w Europie może powstać ok. 60 mln nowych miejsc pracy. Dlatego też KE chce zwiększyć prywatne i publiczne inwestycje w sztuczną inteligencję do 20 mld euro rocznie, a w marcu tego roku Parlament Europejski przyjął projekt europejskiej strategii w zakresie danych, które są podstawą dla rozwoju SI.

Szansę rozwojową w tej technologii dostrzega też rząd, który w styczniu br. przyjął „Politykę dla rozwoju sztucznej inteligencji w Polsce”. Określa ona ponad 200 zadań, których realizacja jest niezbędna do szerokiego wdrożenia SI m.in. w takich obszarach jak edukacja, nauka, sektor przedsiębiorstw i sektor publiczny oraz współpraca międzynarodowa.

Partner w kancelarii Baker McKenzie zauważa, że jednym z problemów we wdrażaniu SI jest jednak brak odpowiednich uregulowań prawnych. Termin „sztuczna inteligencja” jest bardzo pojemny, używany w odniesieniu do wielu różnych rozwiązań technologicznych, z którymi wiążą się też różne ryzyka prawne.

– Mamy bardzo dużą inicjatywę legislacyjną po stronie Komisji Europejskiej. Mamy trzy akty, które są obecnie procedowane. To jest akt o systemach sztucznej inteligencji, akt o usługach cyfrowych i akt o rynkach cyfrowych. One w założeniu na poziomie całej UE mają regulować sektor cyfrowy w zakresie wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji. Natomiast poza tym nie ma dziś specyficznej regulacji w tym obszarze – podkreśla radca prawny.

Pomimo braku konkretnych regulacji dotyczących SI do tego obszaru zastosowanie mają przepisy ogólne, prawo cywilne. Autonomiczne działanie sztucznej inteligencji stwarza bowiem szereg wyzwań dotyczących odpowiedzialności prawnej. W tej chwili nie istnieją przepisy regulujące, kto będzie ponosić tę odpowiedzialność np. za wypadek z udziałem autonomicznego samochodu czy decyzje podjęte przez algorytm bez autoryzacji, ale w tych sprawach UE wydała swoje opinie.

Możemy sobie wyobrazić, że autonomiczny samochód albo dron uszkodzi czyjeś zdrowie czy w skrajnych przypadkach zabije człowieka. Jeśli zdarzy się taki wypadek, kto za to odpowiada? Tu również jest rezolucja Parlamentu Europejskiego przewidująca, że – na zasadzie ryzyka – tę odpowiedzialność ponosi ten, kto z tego rozwiązania korzysta, a na zasadzie dołożenia należytej staranności – ten, który go stworzył. To już jednak trochę inny rodzaj odpowiedzialności – mówi Marcin Trepka.

Z kolei w sprawach gospodarczych zastosowanie znajduje prawo konkurencji i ochrony konsumentów. Zdarzały się już bowiem przypadki, kiedy algorytmy sztucznej inteligencji były wykorzystywane w sposób budzący wątpliwości od strony prawnej.

– Przykładowo bardzo popularne są różnego rodzaju algorytmy monitorujące ceny, dostosowujące je do poziomu konkurencji. Komisja Europejska w 2017 roku – kiedy ogłaszała wyniki bardzo dużego badania sektorowego w zakresie e-commerce – pokazała, że 53 proc. przedsiębiorców działających na rynku monitoruje ceny konkurentów, a 67 proc. robi to z wykorzystaniem specjalnych algorytmów, z czego 78 proc. z nich dostosowuje na tej podstawie swoje ceny. I nagle może się okazać, że mamy ujednolicenie cen w całych sektorach, ponieważ wszyscy dostosowują się do swoich konkurentów. Tu pojawia się zagrożenie dla konkurencji na rynku w postaci tzw. cichej zmowy, która pomimo że w większości jurysdykcji nie jest zabroniona przez przepisy prawa konkurencji, może wywoływać skutki antykonkurencyjne analogiczne do antykonkurencyjnego porozumienia – ostrzega ekspert Baker McKenzie.

Bardzo duży wpływ na kształtowanie praktyk w tym zakresie będzie mieć projekt rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act), który Komisja Europejska zaprezentowała 21 kwietnia tego roku. Jeszcze przed tym Parlament powołał specjalną Komisję ds. Sztucznej Inteligencji w Erze Cyfrowej (AIDA), której zadaniem jest przeanalizowanie wpływu tej technologii na gospodarkę UE. W październiku ub.r. PE przyjął też trzy sprawozdania dotyczące sposobów na uregulowanie sztucznej inteligencji przez UE, aby wspierać innowacje, standardy etyczne i zaufanie do technologii. Jak wskazali europosłowie, przepisy regulujące ten obszar powinny być ukierunkowane przede wszystkim na człowieka.

– Wszystkie te regulacje są bardzo prokonsumenckie. Zdaniem niektórych obserwatorów ten konsument jest w tym przypadku nawet „nadchroniony”, czyli przyznajemy mu więcej ochrony, niż jest to wymagane. W ten sposób naturalnie ograniczamy innowacyjność, ponieważ im więcej musimy spełnić zasad, tym mniej możliwości eksperymentowania z technologią – mówi Marcin Trepka.

Procedowane obecnie regulacje dotyczące SI mają – jak wskazuje KE – przekształcić Europę w globalne centrum wiarygodnej sztucznej inteligencji. Z jednej strony mają zbudować zaufanie i ograniczyć związane z nią ryzyka, z drugiej – wspierać inwestycje w SI i rozwój tej technologii. Partner w kancelarii Baker McKenzie zauważa jednak, że zbyt sztywne uregulowania zadziałają odwrotnie i ograniczą innowacyjność w tym obszarze.

 Po stronie przedsiębiorstw będzie to oznaczać spore utrudnienia. Po wejściu w życie tych przepisów wprowadzenie systemu SI do obrotu będzie związane z ogromnymi kosztami. Mamy nawet badania niemieckich ośrodków badawczych, które wyliczają, że małe i średnie przedsiębiorstwa chcące zainwestować w system sztucznej inteligencji będą musiały ponieść koszt nawet 400 tys. euro, co będzie kwotą zaporową. Przewiduje się, że koszty związane ze spełnieniem tych wszystkich ograniczeń mogą de facto zablokować rozwój – w przeciwieństwie do zamierzeń projektodawców rozporządzeń, które mają na celu zrównoważony rozwój systemów sztucznej inteligencji – ocenia radca prawny.

Według danych Eurostatu („Artificial intelligence in EU”) obecnie tylko 4 proc. przedsiębiorstw w Polsce i 7 proc. firm europejskich korzysta z systemów sztucznej inteligencji, ale nie ma wątpliwości, że ten odsetek będzie sukcesywnie wzrastać.

Czytaj także

Więcej ważnych informacji

Handel

Rektor Uczelni Łazarskiego: Ustawa o cyberbezpieczeństwie wymaga ponownych konsultacji. Wątpliwości budzi zgodność z prawem części przepisów [DEPESZA]

– W tym projekcie ustawy o krajowym systemie cyberbezpieczeństwa pojawiły się całkowicie nowe przepisy, dotyczące choćby spółki pod nazwą Polskie 5G czy funduszu celowego na rzecz strategicznej sieci bezpieczeństwa. Dlatego potrzebne są ponowne konsultacje – ocenia prof. Maciej Rogalski, rektor Uczelni Łazarskiego. Jak podkreśla, już przy poprzednich wersjach nowelizacji były zgłaszane liczne uwagi z rynku, ale zostały one uwzględnione tylko w niewielkim stopniu. Aktualna wersja projektu nadal zawiera więc szereg wad prawnych i jest wątpliwa pod kątem zgodności z międzynarodowym, unijnym, a nawet polskim prawem.

Bankowość

Kredytobiorcy rezygnują z procesów frankowych w obawie przed wysokimi kosztami. Teraz będą mogli je wytoczyć bez kosztów i opłat początkowych

– Orzecznictwo sądowe jest w tej chwili bardzo przyjazne sprawom konsumenckim – mówi Anna Lengiewicz z kancelarii LWB Lengiewicz Wrońska i Wspólnicy. W sprawach sądowych dotyczących tzw. polisolokat i kredytów frankowych szanse na wygraną sięgają nawet 80–90 proc. Jednak większość konsumentów nie podejmuje żadnych kroków, aby odzyskać swoje pieniądze, obawiając się utraty kolejnych środków na opłacenie prawników i kosztów sądowych. W tym miesiącu ruszył dedykowany im program RePlan, który zapewnia finansowanie takich spraw. Kredytobiorca może w nim liczyć na obsługę prawną i pełne pokrycie kosztów postępowania, a wynagrodzenie zapłaci tylko w przypadku wygranej sprawy.

Transport

Drony przyszłością rynku usług transportowych. Dzięki nim przesyłki mogą być tańsze nawet o 80 procent

Na lotniskach całego świata coraz częściej wykorzystywane są drony cargo. Użycie ich do transportu nawet kilkuset kilogramowych paczek  pozwala obniżyć koszt nawet o 80 proc. Bezzałogowce są już używane między innymi w Australii do dystrybucji leków dla mieszkańców terenów wiejskich. Spółka wyspecjalizowana w transporcie dronowym działa także w Polsce, na lotnisku w Katowicach. Zdaniem analityków rynek logistyki z użyciem dronów wzrośnie w ciągu kilku lat niemal trzykrotnie.

Problemy społeczne

Kolejna pandemia może się pojawić już za sześć–osiem lat. Obecna ujawniła braki w systemie zarządzania kryzysowego

Pandemia COVID-19 pokazała, że polski system ochrony zdrowia nie jest przygotowany na kolejny kryzys o takiej skali – wskazują eksperci Instytutu Jagiellońskiego i postulują systemowe reformy. W raporcie „Jak przygotować polską ochronę zdrowia na kolejne epidemie?” rekomendują wdrożenie 100 działań niezbędnych, żeby przygotować się na wypadek kolejnego zagrożenia epidemicznego. To m.in. efektywniejsze zarządzanie kadrami medycznymi, implementacja technologii mobilnych i rozwiązań IT przydatnych w walce z pandemią, ale i opracowanie odpowiednich strategii komunikacji na czas kryzysu, aby przeciwdziałać manipulacjom opinii publicznej.