Mówi: | prof. Piotr Sankowski, prezes IDEAS NCBR i lider grupy badawczej dr Inez Okulska, kierowniczka Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK Filip Konopczyński, Fundacja Panoptykon |
Sztuczna inteligencja pomoże w rozwiązaniu części problemów społecznych. Badacze chcą ją wykorzystać do zwalczania hejtu i dezinformacji
Sztuczna inteligencja w ciągu ostatnich kilku miesięcy przeżywa boom, a debatę dotyczącą tej technologii zdominowały jak na razie aspekty rozrywkowe i biznesowe czy zagrożenia związane z rynkiem pracy. Jednak wśród badaczy coraz częściej mówi się o koncepcji AI for social impact, czyli zastosowaniu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym. W tym kontekście AI może być pomocna np. w detekcji i zwalczaniu szkodliwych i nielegalnych treści – hejtu, mowy nienawiści czy dziecięcej pornografii w internecie, wspierać rozwój medycyny czy walkę z przestępczością. Eksperci podkreślają jednak konieczność lepszego poznania i właściwego uregulowania tej technologii, co jednocześnie pozwoli uniknąć związanych z nią zagrożeń.
– Obawy dotyczące sztucznej inteligencji są związane trochę z tym stereotypem powielanym w książkach czy filmach science fiction, gdzie jakaś nadludzka sztuczna inteligencja próbuje nas zwalczyć. Trochę też nie rozumiemy, co ona może zrobić, w jaki sposób miałaby nam zagrozić i dlaczego podejmuje takie, a nie inne decyzje. Natomiast te obawy dotyczące AI są przedwczesne, bo to, jak ona będzie działać i jakie będzie mieć możliwości, zależy tak naprawdę od nas. To my powinniśmy wbudować jej odpowiednie cele, żeby rzeczywiście robiła rzeczy, które są dla nas pożyteczne – mówi agencji Newseria Biznes prof. Piotr Sankowski, prezes IDEAS NCBR i lider grupy badawczej.
Według badania przeprowadzonego przez NASK („AI w społeczeństwie i gospodarce. Raport z badań społecznych”) tylko 4 proc. Polaków nie zetknęło się dotychczas z pojęciem sztucznej inteligencji. Z kolei ponad połowa uważa, że AI już wpływa na ich codzienne życie w obszarach takich jak pozyskiwanie informacji, rozrywka, edukacja, zakupy czy transport.
Z badania wynika też, że wiedzę o sztucznej inteligencji Polacy czerpią najczęściej z telewizji, portali i stron www, mediów społecznościowych oraz filmów, seriali i książek popularnonaukowych. Spodziewają się, że największymi korzyściami tej technologii będą przede wszystkim: poprawa komfortu życia (34 proc.), lepszy poziom cyberbezpieczeństwa (33 proc.), zmniejszenie liczby nieszczęśliwych wypadków w pracy (32,7 proc.) oraz wyższy poziom personalizacji produktów i usług (30,3 proc.). Średnio co czwarty Polak jest gotów korzystać z transportu bezzałogowego, a co szósty – z usług medycznych, w których rozwiązania oparte na AI zastępują lekarza.
Z drugiej strony polscy internauci obawiają się również, że wraz z rozwojem tej technologii ich prywatność będzie narażona na ciągłe śledzenie (60,5 proc.), bezrobocie wzrośnie (40,1 proc.), a cyberzagrożeń będzie coraz więcej (37,7 proc.).
– Użytkownicy raczej nie rozumieją działania sztucznej inteligencji, ale musimy tu być szczerzy, dotyczy to też samych badaczy tej technologii. Tworzymy tak skomplikowane systemy, że wręcz sami nie rozumiemy, jak one działają. Dlatego ważne są badania w tym kierunku, a wiedza o tym, dlaczego algorytm podejmuje takie, a nie inne decyzje, z pewnością zmniejszy obawy ludzi – mówi prof. Piotr Sankowski.
Sztuczna inteligencja w ciągu ostatnich kilku miesięcy przeżywa boom, głównie za sprawą ChatGPT – narzędzia SI wspieranego modelem językowym, opracowanego przez laboratorium badawcze OpenAI, które jest nazywane kamieniem milowym w rozwoju tej technologii. W połowie marca br. pojawił się jego znacznie ulepszony następca – ChatGPT4, który większość dotychczasowych użytkowników zgodnie nazywa rewolucją na miarę wynalezienia internetu czy maszyny parowej.
Debatę dotyczącą rozwoju tej technologii zdominowały jak na razie aspekty rozrywkowe i biznesowe, które zestawia się z potencjalnymi zagrożeniami. W tym kontekście mówi się na ogół o rynku pracy i ryzyku wyparcia z niego części zawodów. Z drugiej strony wśród badaczy coraz częściej mówi się o koncepcji AI for social impact, czyli użyciu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym. Algorytmy sztucznej inteligencji mogą być pomocne np. w detekcji i zwalczaniu szkodliwych i nielegalnych treści – hejtu, mowy nienawiści czy dziecięcej pornografii w internecie.
– Pożyteczność społeczna sztucznej inteligencji to przede wszystkim wykrywanie szkodliwych treści. I nie chodzi tutaj o cenzurę, bo wiadomo, że to jest trochę trudny i gorący temat i łatwo w tę stronę skręcić. Natomiast wszyscy chcemy w internecie korzystać z tych treści, które są najfajniejsze, pełne informacji, wolne od hejtu, od drastycznych elementów. Ktoś musi za to odpowiadać, ktoś musi nad tym czuwać – mówi dr Inez Okulska, kierowniczka Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w PIB-NASK. – W tym właśnie kierunku prowadzimy badania – ciekawe dla nas naukowo, a jednocześnie ważne i praktyczne dla odbiorców internetu.
Naukowcy próbują też wykorzystać AI w medycynie, na wielu płaszczyznach: np. do rozpoznawania niebezpiecznych zmian skórnych czy wybierania narządów do przeszczepu. W przyszłości wykorzystanie algorytmów w tym obszarze będzie w coraz większym stopniu usprawniać pracę lekarzy i personelu medycznego oraz zmniejszać koszty związane z leczeniem. Z kolei w Stanach Zjednoczonych już w tej chwili używa się ich np. do planowania patroli policyjnych, ponieważ algorytmy mogą wskazywać konkretne obszary, gdzie z dużym prawdopodobieństwem dojdzie do przestępstwa, np. w trakcie dużych wydarzeń sportowych.
Problem wciąż tkwi jednak w danych dostarczanych algorytmom, co często prowadzi do zniekształceń. Dla przykładu według MIT Technology Review osoby czarnoskóre są narażone na zatrzymanie bez uzasadnionej przyczyny pięć razy bardziej niż białe. To pokazuje, że źle skonstruowane algorytmy mogą wzmacniać uprzedzenia i prowadzić do niepokojów społecznych. Dlatego – jak wskazuje Filip Konopczyński z Fundacji Panoptykon – w przyszłości ta technologia będzie wymagać odpowiednio skonstruowanych regulacji i zapewnienia przejrzystości jej działania.
– Obszarów zagrożenia jest wiele. Po pierwsze, to kwestia dyskryminacji, po drugie – zagrożeń związanych z naruszaniem naszej prywatności. Sztuczna inteligencja może też być używana np. do celów dezinformacyjnych, może służyć manipulacji, wykorzystywać nasze podatności psychologiczne do tego, żeby wywierać wpływ czy nas kategoryzować. W czarnym scenariuszu może być wykorzystywana np. przez państwa do tego, żeby tworzyć takie szczelne, skuteczne systemy zarządzania autorytarnego. I dlatego właśnie potrzebne są regulacje, które będą chronić praw podstawowych, praw człowieka – podkreśla Filip Konopczyński.
Jak wskazuje, UE pracuje obecnie nad nową regulacją – unijnym Aktem o sztucznej inteligencji (Artificial Intelligence Act), który ma wdrożyć precyzyjne regulacje dotyczące tej technologii. Jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań, która może w przyszłości wywrzeć wpływ na ich rozwój i ustawodawstwo także w krajach poza Unią Europejską.
Czytaj także
- 2024-07-09: Poprawa dostępu do finansowania może napędzić innowacje w firmach. Banki będą miały do odegrania ważną rolę w transformacji cyfrowej i energetycznej gospodarki
- 2024-07-12: Małe firmy mają utrudniony dostęp do finansowania działalności innowacyjnej. Fundusze unijne pomogą odblokować środki na takie inwestycje
- 2024-07-16: Polskie banki nie zwalniają procesu digitalizacji. Wydatki na technologie stanowią nawet do 70 proc. ich kosztów
- 2024-07-19: Sztuczna inteligencja w nieodpowiednich rękach może stanowić poważne zagrożenie. Potrzebna jest większa świadomość twórców i użytkowników oraz twarde regulacje
- 2024-07-17: Sztuczna inteligencja pomaga identyfikować czynniki ryzyka wypadków samochodowych. Naukowcy za pomocą Google Street View analizują pod tym kątem infrastrukturę drogową
- 2024-07-15: Małe i średnie firmy w UE zbyt wolno się cyfryzują. Polskie przedsiębiorstwa dużo poniżej unijnej średniej
- 2024-06-25: Grupa LUX MED szuka medycznych innowatorów. Najlepsi mogą liczyć na potężny zastrzyk finansowania
- 2024-06-20: Sztuczna inteligencja rewolucjonizuje edukację. Rynek takich rozwiązań będzie rósł w tempie prawie 40 proc. rocznie
- 2024-06-18: Sztuczna inteligencja w centrum zainteresowania biznesu. Większość firm ogranicza się do pilotażów i eksperymentowania
- 2024-07-05: Sektor finansowy walczy o pracowników. Coraz ważniejsze stają się kompetencje technologiczne
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Prawo
Przedsiębiorcy czekają na doprecyzowanie przepisów dotyczących Małego ZUS-u Plus. W sądach toczy się ponad 600 spraw z ZUS-em
Oddziały Biura Rzecznika MŚP prowadzą już ponad 600 spraw dotyczących Małego ZUS-u Plus. Przedmiotem sporu z ZUS-em jest interpretacja, jak długo – dwa czy trzy lata – powinna trwać przerwa, po upływie której przedsiębiorca może ponownie skorzystać z niższych składek. Pod koniec czerwca Sąd Okręgowy w Gorzowie Wielkopolskim wydał pierwszy wyrok, w którym podzielił korzystną dla przedsiębiorców argumentację Rzecznika MŚP. – Nie stanowi on jeszcze o linii interpretacyjnej. Czekamy na wejście w życie ustawy deregulacyjnej, która ułatwi od stycznia przedsiębiorcom przechodzenie na Mały ZUS Plus – mówi Agnieszka Majewska, Rzecznik Małych i Średnich Przedsiębiorców.
Problemy społeczne
Awaria CrowdStrike’a miała podobne skutki jak potencjalny cyberatak. Uzależnienie od technologii to ryzyko wyłączenia całych gałęzi gospodarki
Ogromna awaria systemu Windows, wywołanego błędem w aktualizacji oprogramowania CrowdStrike, doprowadziła do globalnego paraliżu. Przestały działać systemy istotne z perspektywy codziennego życia milionów ludzi. Tylko w piątek odwołano kilka tysięcy lotów na całym świecie, a w części regionów w USA nie działał numer alarmowy. – To pokazuje, że im bardziej jesteśmy uzależnieni od technologii, tym łatwiej wykluczyć wręcz całe gałęzie gospodarki, a podobne skutki mógłby mieć cyberatak – ocenia Krzysztof Izdebski z Fundacji im. Stefana Batorego. Jego zdaniem tego typu incydenty są nie do uniknięcia i trzeba się na nie lepiej przygotować.
Ochrona środowiska
Nowelizacja przepisów ma przyspieszyć rozwój farm wiatrowych. Do 2040 roku Polska może mieć zainstalowane w nich ponad 40 GW mocy
Jeszcze w tym kwartale ma zostać przyjęty przez rząd projekt zmian w ustawie o inwestycjach w zakresie elektrowni wiatrowych. Nowelizacja zmniejsza minimalną odległość turbin wiatrowych od zabudowań do 500 m. Polskie Stowarzyszenie Energetyki Wiatrowej ocenia, że zmiana odległości zwiększy potencjał energetyki wiatrowej do 2040 roku nawet dwukrotnie, do poziomu 41,1 GW. – Branża czeka też na przyspieszenie procedur, przede wszystkim procedury środowiskowej i całego procesu zmiany przeznaczenia gruntów – mówi Anna Kosińska, członkini zarządu Res Global Investment.
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.