Newsy

Prace nad unijnym AI Act na finiszu. W kwestii regulacji sztucznej inteligencji USA czy Chiny nie podążą ścieżką Europy

2024-02-29  |  06:15
Mówi:dr Maciej Kawecki
Funkcja:prezes Instytutu Lema, dyrektor Centrum Innowacji Uniwersytetu WSB Merito w Warszawie

AI Act, czyli unijny akt o sztucznej inteligencji, ma w założeniu zmienić cyfrowy krajobraz Europy, kategoryzując narzędzia SI według poziomów ryzyka oraz nakładając nowe obowiązki na rządy i firmy. Eksperci zwracają jednak uwagę, że akt odnosi się w swoim zasięgu tylko do poszczególnych, krytycznych obszarów związanych z funkcjonowaniem SI. Ma regulować kwestie takie jak m.in. sprawa deepfake’ów, biometrii czy social scoringu. Regulacja jest przede wszystkim odpowiedzią na pojawiające się nowe i coraz bardziej zaawansowane modele generatywnej sztucznej inteligencji. Ostatnim przykładem takiego rozwiązania jest Sora od OpenAI – narzędzie do tworzenia filmów. Prawdopodobnie unijne prawo nie będzie jednak inspiracją dla prawodawców w USA czy Azji.

Na początku lutego Rada UE – po trzech latach prac – przyjęła finalną wersję aktu o sztucznej inteligencji. Teraz zajmą się nią komisje parlamentarne, a głosowanie na forum Parlamentu Europejskiego spodziewane jest na początku kwietnia. Rozporządzenie ma wejść w życie 20 dni po jego opublikowaniu, a poszczególne przepisy zaczną obowiązywać w państwach członkowskich po okresie od sześciu miesięcy do trzech lat. W tym czasie zarówno kraje, jak i firmy i instytucje będą musiały dostosować się do nowych regulacji.

Tego typu decyzje są argumentowane bardzo często aspektem czysto politycznym. Przykładem jest to, co się wydarzyło z przyjmowaniem RODO. Parlament opowiedział się za tym po aferze związanej ze Snowdenem. Teraz motywatorem dla parlamentu jest to, co robi głównie spółka OpenAI i najwięksi na świecie gracze technologiczni, jak Nvidia, Google czy Microsoft. Wypluwają oni coraz to nowsze produkty AI-owe, tworząc nowe, silniejsze modele językowe – mówi w wywiadzie dla agencji Newseria Innowacje dr Maciej Kawecki, prezes Instytutu Lema, dyrektor Centrum Innowacji Uniwersytetu WSB Merito w Warszawie.

W połowie lutego Open AI zaprezentowało generator klipów wideo Sora, oparty na sztucznej inteligencji. Narzędzie potrafi tworzyć minutowe filmy, zamieniając na nie tekst promptu. Klipy charakteryzują się wysoką szczegółowością scen, złożonością ruchu kamer i postaciami zbudowanymi z uwzględnieniem warstwy emocjonalnej. Co istotne z punktu widzenia regulacji AI Act, Sora może też wygenerować wideo na podstawie nieruchomego obrazu lub modyfikować istniejące filmy. W ślad za uruchomieniem narzędzia Sora Worldcoin, kryptowaluta opracowana przez właściciela OpenAI, Sama Altmana, zanotowała dynamiczny wzrost kursu: o prawie 200 proc. w ciągu niespełna tygodnia.

Już dzisiaj SI wiąże się z szeregiem wyzwań, związanych m.in. z ochroną prywatności, prawami autorskimi, kwestiami etycznymi czy rynkiem pracy. Jak wyjaśniają eksperci Towarzystwa Ekonomistów Polskich, unijny AI Act stanowi odpowiedź na konieczność ukierunkowania jej odpowiedzialnego i bezpiecznego rozwoju. Systemy sztucznej inteligencji mają być klasyfikowane w ramach czterech grup, w zależności od poziomu ryzyka, jaki stwarzają w szczególności dla zdrowia, bezpieczeństwa i naruszenia praw podstawowych. Przykładowo przewidziany jest zakaz systemów nieakceptowalnego ryzyka – ich wprowadzania do obrotu, oddawania do użytku lub wykorzystywania. Zaliczono do nich takie systemy, które wykorzystują techniki podprogowe, manipulacyjne lub zwodnicze i przez to istotnie zniekształcają zachowanie danej osoby. AI Act ustanawia także publicznoprawny system nadzoru nad niektórymi systemami.

Trzeba pamiętać, że AI Act jest tak zwaną regulacją wyspową, a więc taką, która nie reguluje domyślnie całego procesu tworzenia i wykorzystywania sztucznej inteligencji, ale tylko obszary wyspowe, czyli tam, gdzie AI znajdzie zastosowanie na przykład w social scoringu, w wykorzystywaniu danych biometrycznych, deepfake’ów, czyli wykorzystywania modeli językowych do tworzenia ruchomych obrazów, które mogą wprowadzać w błąd czy dezinformować. Te obszary wyspowo będą regulowane poprzez na przykład obowiązek poinformowania o tym, że coś jest deepfakiem, albo poprzez odebranie zgody na wykorzystanie naszych danych w celach social scoringu – mówi dr Maciej Kawecki.

Ta fragmentaryczność odróżnia tę regulację od innych, np. w zakresie ochrony danych osobowych RODO. UE wyszła z założenia, że regulowanie całego obszaru AI nie jest możliwe.

Jestem zwolennikiem regulacji w ogóle, ale z pełną świadomością tego, co robimy, czyli ze świadomością tego, że regulujemy obszar, którego nie mamy, dlatego że dzisiaj Unia Europejska nie jest miejscem tworzenia silnych modeli językowych, to raczej Azja i Stany Zjednoczone. Teraz konsekwencją tego jest to, że stajemy się jako Unia Europejska trochę słodkim skansenem w pewnym sensie, czyli kontynentem, który stawia oczywiście na wartości, to jest nam bliskie, ale musimy też mieć pełną świadomość odpowiedzialności z tego wynikających, że stajemy się w pewnym sensie wtórni względem wpływu sztucznej inteligencji na gospodarkę, który bez wątpienia na kontynentach takich jak Ameryka Północna i Azja będzie ogromny – podkreśla prezes Instytutu Lema.

W jego ocenie, choć o regulowaniu kwestii sztucznej inteligencji mówi się również w Azji i Stanach Zjednoczonych, to europejskie wysiłki raczej nie staną się inspiracją dla tamtejszych prawodawców.

– Prezydent Stanów Zjednoczonych jakiś czas temu przyjął dekret, który nie ma mocy prawnej, a dotyczy on obszarów bardzo nam dalekich z perspektywy europejskiej. Wypowiada się na przykład na temat wykorzystywania sztucznej inteligencji w obrocie nieruchomościami. My jesteśmy dzisiaj na tak zwanym pierwszym etapie rozwoju SI, czyli etapie produktowym. Drugim będzie pewnie włączenie się w rozwój sztucznej inteligencji gospodarek państw, które dostrzegą, że sztuczna inteligencja będzie gwarantem zapewnienia jej pozycji geopolitycznej, wpływów, rozwiązywania problemów o charakterze społecznym, w tym związanych ze służbą zdrowia, zmianami klimatycznymi i dopasowaniem usług do potrzeb obywateli. Wtedy nastąpi proces dzielenia się gospodarek danymi o obywatelach – przewiduje naukowiec. – Nie wydaje mi się, żeby drogą, którą wybrała Unia Europejska, podążały też Stany Zjednoczone czy Azja.

Według Goldman Sachs Research generatywna sztuczna inteligencja może podnieść światowy PKB o 7 proc. (o 7 bln dol.) w 10-letniej perspektywie.

Czytaj także

Kalendarium

Więcej ważnych informacji

Jedynka Newserii

Jedynka Newserii

Edukacja

Sztuczna inteligencja rewolucjonizuje edukację. Rynek takich rozwiązań będzie rósł w tempie prawie 40 proc. rocznie

Sztuczna inteligencja otwiera nowe horyzonty dla procesu nauczania i uczenia się, rewolucjonizując sektor edukacji. Z badań wynika, że z aplikacji bazujących na AI już w tej chwili korzysta duża grupa uczniów i studentów, jak i nauczycieli, a na rynku pojawia się coraz więcej takich narzędzi. Jak szacuje Grand View Research, do 2030 roku wartość globalnego rynku sztucznej inteligencji w edukacji będzie rosła średniorocznie o blisko 37 proc., przy czym duża część tego rynku będzie zdominowana przez platformy edukacyjne. – Dzięki AI nauczanie staje się bardziej spersonalizowane i interaktywne – mówi Jeff Maggioncalda, dyrektor generalny międzynarodowej platformy edukacyjnej Coursera.

Ochrona środowiska

Branża chemiczna w Europie na zakręcie. Konkurencja z Azji i Europejski Zielony Ład wymuszają inwestycje w innowacje

Sektor chemiczny w Polsce i Europie stoi przed szeregiem wyzwań, z których największym jest obecnie konkurencja ze strony rynku azjatyckiego, przede wszystkim tańszych produktów z Chin. Na to nakłada się też znaczący wzrost kosztów produkcji, spowodowany wyższymi cenami energii i surowców, oraz obciążenia wynikające z regulacji UE nastawionych na neutralność klimatyczną w 2050 roku. Kluczem do utrzymania konkurencyjności branży są inwestycje w badania, innowacje i nowe technologie, które pozwalają jej z większą elastycznością reagować na trudne warunki, a przy tym lepiej odpowiadają na wyzwania związane ze zrównoważonym rozwojem.

Farmacja

Trwają prace nad zmianami w programie szczepień przeciwko HPV. Na razie zaszczepiła się jedna piąta uprawnionych nastolatków

W ciągu pierwszego roku działania programu bezpłatnych szczepień przeciwko wirusowi HPV dla 12- i 13-latków zaszczepiono tylko ok. 20 proc. uprawnionych. Eksperci wskazują na wiele różnych możliwości poprawy niepokojących statystyk. Pierwszym z nich jest edukacja dzieci i dorosłych na temat roli szczepień oraz zagrożeń, jakie wiążą się z zakażeniem HPV, wirusem odpowiadającym m.in. za nowotwory szyjki macicy, odbytu, krtani czy jamy ustnej. Kolejnym pomysłem jest zwiększenie liczby placówek z dostępnymi szczepieniami o kolejne POZ-y, ale też szkoły. Ministerstwo Zdrowia zapowiedziało, że pracuje nad niezbędnymi zmianami.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.