Newsy

Coraz bliżej powstania świadomej sztucznej inteligencji. Potrzebne są działania zapobiegające niewłaściwemu jej wykorzystaniu

2024-05-24  |  06:20

O sztucznej inteligencji mówi się już coraz częściej w kontekście możliwości i zagrożeń, jakie przyniesie powstanie globalnej sztucznej inteligencji. To model, który byłby zdolny do myślenia takiego, jakim cechuje się człowiek, ale jego możliwości obliczeniowe przewyższałyby możliwości ludzkiego mózgu kilka milionów razy. Rodzi to uzasadnione obawy o bezpieczeństwo, stąd postulat, by uczestnicy rynku składali przysięgę na wzór przysięgi Hipokratesa. Zgodnie z nią mieliby dbać o to, by zastosowania technologii miały wymiar etyczny. Zdaniem ekspertów potrzebnych jest też więcej szczegółowych regulacji.

– Coraz więcej mówi się dziś o tak zwanej conscious AI, czyli świadomej AI. Mamy dwugłos, bo z jednej strony mówi się o tym, że sztuczna inteligencja nie jest i nigdy nie będzie świadoma, a z drugiej strony idziemy w kierunku właśnie budowania ogólnej sztucznej inteligencji czy supersztucznej inteligencji, która w ogóle ma przekraczać inteligencję człowieka. Trudno mi jest powiedzieć, czy sztuczna inteligencja jest albo może być świadoma, bo jedyną świadomością, jaką znamy, pewnie i tak nie do końca, jest ta nasza, ludzka – ocenia w wywiadzie dla agencji Newseria Innowacje Natalia Hatalska, CEO i założycielka infuture.institute.

Dzisiejsza sztuczna inteligencja może wykonywać określone zadania, ale nie umie myśleć i postępować jak człowiek, który jest zdolny do kojarzenia teoretycznie niepowiązanych ze sobą elementów rzeczywistości. Ogólna sztuczna inteligencja to wciąż hipotetyczny, ale możliwy do zrealizowania w niedalekiej, nawet kilkuletniej perspektywie model, który będzie w stanie myśleć jak ludzie, ale co najmniej kilka milionów razy szybciej, i to bazując na zasobie danych równym całej wiedzy zgromadzonej na świecie, aktualizowanej w czasie rzeczywistym. Wyzwaniem, jakie stoi przed osobami i organizacjami zaangażowanymi w rynek SI, jest stworzenie takich warunków rozwoju tego typu technologii, by były one dobrodziejstwem ludzkości, a nie narzędziem zdobycia większej władzy dla wąskiej grupy ludzi.

– Coraz głośniej wybrzmiewa koncepcja tzw. przysięgi technokratycznej, która jest analogią do przysięgi Hipokratesa. Chodzi w niej o to, by każda osoba pracująca przy technologiach związanych ze sztuczną inteligencją, neurotechnologiami czy biotechnologiami składała taką przysięgę, która mówiłaby o etycznej pracy i etycznym wykorzystaniu tego typu technologii. Jeżeli chodzi o zabezpieczenie rozwoju sztucznej inteligencji, to ja widzę tutaj dwa obszary, pierwszy to jest obszar regulacyjny. Drugi to edukacja społeczeństwa, bo same regulacje nigdy nie są wystarczające. Ludzie muszą mieć też świadomość tego, czym ta technologia jest, jak jej używać, jakie są zagrożenia, jakie są ograniczenia i jaki ona daje potencjał – wymienia Natalia Hatalska.

Pierwszym krokiem w kwestii regulacji prawnych, poczynionym na gruncie europejskim, jest AI Act. Celem tej regulacji jest zbudowanie środowiska prawnego, które pozwoli na rozwój tej technologii, ale jednocześnie na poszanowanie praw podstawowych oraz ochronę demokracji czy praworządności przed systemami wysokiego ryzyka. Miną jednak jeszcze co najmniej dwa lata, nim ta dyrektywa zostanie wdrożona.

– Technologie oparte o sztuczną inteligencję wpływają na przykład na procesy demokratyczne w różny sposób, mówię tutaj zarówno o deepfake’ach, jak i w ogóle o fake newsach, które pojawiają się w sieci i dezinformacji, mających wpływ na nasze decyzje. Wraz z upowszechnianiem się sztucznej inteligencji widzimy po stronie ludzi z kolei taki trend, który my określamy jako analfabetyzm funkcjonalny. Ludzie tracą umiejętność krytycznego myślenia, jasnego formułowania myśli, czytania ze zrozumieniem. I to też przez to, że ludzie nie umieją krytycznie myśleć, nie umieją odróżniać informacji prawdziwych od nieprawdziwych, co wpływa na procesy demokratyczne, na udział bądź nie w wyborach, w referendach, podejmowanie decyzji – wskazuje ekspertka.

Rozwój sztucznej inteligencji budzi też w społeczeństwie inne obawy. Pierwsza z nich dotyczy automatyzacji pracy i możliwości zabrania ludziom pracy przez roboty. Eksperci rynku pracy uspokajają jednak, że wraz ze starzeniem się społeczeństwa zapotrzebowanie na pracowników w wieku produkcyjnym będzie rosło, a SI może się przyczynić raczej do przemodelowania zatrudnienia. Druga obawa to futurystyczna wizja buntu maszyn, które mogłyby doprowadzić do zagłady ludzkości.

– Na razie te technologie to są tak zwane pewne prawa, które mówią o tym, jak roboty powinny być budowane. Nawet jeżeli one by pomyślały o tym, że mają zgładzić człowieka, to zanim ta myśl do nich przyjdzie, mają się wyłączyć. Teoretycznie jesteśmy więc przed tym chronieni. Największym zagrożeniem jest według mnie to, jak my na co dzień korzystamy z technologii i jak ona wpływa na nas jako ludzi – kwituje CEO i założycielka infuture.institute.

Według Cognitive Market Research światowy rynek sztucznej inteligencji w 2030 roku przekroczy wartość 400 mld dol. Średnioroczne tempo wzrostu wyniesie w latach 2024–2030 ponad 31 proc.

Czytaj także

Kalendarium

Więcej ważnych informacji

European Financial Congress 2024

Jedynka Newserii

Jedynka Newserii

Ochrona środowiska

Przedsiębiorcy wypowiedzą się na temat dekarbonizacji. Nowy indeks pokaże ich nastroje względem zielonej transformacji

Indeks Dekarbonizacji Polskiej Gospodarki ma pokazać, jak wygląda nastawienie krajowego biznesu do kwestii związanych z zieloną transformacją. To nowe narzędzie, wzorowane na wskaźniku PMI, stworzone przez Pracodawców PR, Fundację Instrat i spółkę Qemetica. Indeks, na podstawie ankiet przeprowadzanych wśród przedsiębiorstw, ma uzupełniać dostępne obecnie dane klimatyczne oraz wskazać trendy i aktualne wyzwania dla polskiej gospodarki związane z dekarbonizacją i zrównoważonym rozwojem. Docelowo nowe narzędzie ma się też stać platformą do wymiany opinii między firmami, regulatorami oraz administracją centralną.

Transport

Prezes lotniska Warszawa-Modlin: CPK nie jest dla nas zagrożeniem. Będzie miejsce dla portów regionalnych

 Nie boję się, że powstanie Centralnego Portu Komunikacyjnego zagrozi istnieniu lotnisk regionalnych, w tym Modlina – mówi Tomasz Szymczak, p.o. prezesa Mazowieckiego Portu Lotniczego Warszawa-Modlin. Jak podkreśla, mniejsze porty lotnicze będą obsługiwały inny ruch, w tym m.in. przewoźników low-costowych i czarterowych, będzie więc zapotrzebowanie na ich rozwój. Tym bardziej że prognozy dla ruchu lotniczego w regionach są optymistyczne. Władze lotniska w Modlinie planują rozbudowę portu o nowe gate’y.

Bankowość

Banki coraz śmielej wdrażają generatywną sztuczną inteligencję. Podchodzą jednak do tej technologii z dużą ostrożnością

Rośnie rola generatywnej AI w biznesie: w tę technologię inwestuje już 43 proc. przedsiębiorstw na całym świecie, w tym w Polsce, a w ciągu nadchodzącego roku planuje to zrobić kolejne 30 proc. – wynika z raportu EY „Reimagining Industry Futures Study 2024”. Jedną z branż, które dostrzegają w GenAI największy potencjał, są finanse. Banki chętnie inwestują w tę technologię, licząc m.in. na wzrost sprzedaży, usprawnienie procesów i możliwość lepszej personalizacji produktów i usług. Z drugiej strony GenAI niesie też ze sobą szereg wyzwań, związanych chociażby z poufnością i integralnością danych.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.