Komunikaty PR

Sztuczna inteligencja a cyberkonflikt – czy AI nas zaatakuje, czy obroni?

2023-03-24  |  09:30

Rozwój i szerszy dostęp do AI to nowe, kreatywne możliwości nie tylko dla biznesu i zwykłych użytkowników. Sztuczna inteligencja okazuje się niestety także doskonałym narzędziem do planowania działań cyberprzestępczych oraz eskalacji konfliktów politycznych i zbrojnych. Fałszowanie przekazów audio i video dla celów propagandowych, duże kampanie phishingowe, wielowątkowe cyberataki – to tylko niektóre z możliwych scenariuszy. Czy odpowiedzią na nie będą systemy bezpieczeństwa, zbudowane również w oparciu o AI? Jak wygląda teraźniejszość i jak wyglądać może przyszłość konfliktów zasilanych sztuczną inteligencją?

AI wśród najważniejszych cyberzagrożeń?

O możliwościach i zagrożeniach z tym związanych, dyskutowali w połowie maja uczestnicy odbywającej się w Warszawie konferencji „ESET European Cybersecurity Day”. Znaleźli się wśród nich zarówno przedstawiciele zagranicznych instytucji rządowych (m.in. Victor Zhora, zastępca szefa Państwowej Służby Łączności Specjalnej i Ochrony Informacji Ukrainy; Rastislav Janota, przewodniczący Komitetu ds. Cyberbezpieczeństwa, Narodowy Urząd Bezpieczeństwa, Słowacja), dużych korporacji (m.in. Santander Bank czy Microsoft), a także sektora prawnego i naukowego.

– Rządy i instytucje odgrywają kluczową rolę w ustalaniu zasad oraz przepisów dotyczących cyberbezpieczeństwa. Działania na rzecz bezpieczeństwa wymagają jednak również współdziałania z prywatnymi organizacjami. Zapewnienie wolnej, otwartej, stabilnej i bezpiecznej cyberprzestrzeni to nie tylko wspólny interes. To także wspólna odpowiedzialność, zarówno sektora publicznego, jak i prywatnego – podkreślała otwierając konferencję Andrea Elscheková Matisová, Ambasador Republiki Słowackiej w RP.

Panel „AI i cyberkonflikt” po raz pierwszy dołączył do agendy wydarzenia, w ramach którego omawiano wszystkie najaktualniejsze wyzwania, związane z zabezpieczaniem cyberprzestrzeni takie jak m.in. ochrona krytycznych elementów infrastruktury państwowej, zabezpieczenia sektora bankowego i finansowego czy bieżące regulacje na poziomie europejskim. To pokazuje, jak szybko sztuczna inteligencja i wyzwania z nią związane wykroczyły poza etap technologicznych i akademickich rozważań. Rozmowa o wykorzystaniu AI na polu walki – zarówno cyfrowym, jak i realnym – to już teraz dyskusja o konkretnych wyzwaniach, a przyszłość może być jeszcze bardziej zaskakująca.

Nie tylko ChatGPT

Eksperci podkreślają, że sztuczna inteligencja to nie tylko Chat GPT, narzędzie umiejące szczegółowo odpowiadać na zapytania w języku naturalnym czy pisać kod, ale również technologie pozwalające na replikację głosu (VALL-E), edycję wideo (Runway Gen-2) i generowanie obrazu (DALL-E, Stable Diffusion, Midjourney itp.). To jednak nadal nie wszystko, rozwijane są także kolejne, specjalistyczne modele, które można wykorzystać w cyberprzestrzeni – zarówno z dobrymi, jak i złymi intencjami.

– Postęp związany z inżynierią AI i uczeniem maszynowym daje zarówno cyberprzestępcom, jak i osobom zajmującym się bezpieczeństwem, zupełnie nowe możliwości. Nie zapominajmy, że to nie tylko rozwój Chat GPT czy myślenia maszynowego. Inne, bardziej wyspecjalizowane modele i algorytmy także dynamicznie się rozbudowują. Wiele tego typu rozwiązań opracowanych w ostatnim czasie posiada funkcje bardzo przydatne zarówno dla osób, które będą je chciały wykorzystać do dobrych, jak i złych celów. Wciąż pozostało jednak do rozwiązania wiele kwestii, związanych z ich prawidłową implementacją. Pojawia się wiele wyzwań związanych z wdrażaniem ich, by działały zgodnie z oczekiwaniami – mówi Jakub Dębski, Chief Product Officer w ESET.

AI vs. AI?

Czy i kiedy na cyfrowym polu walki czeka nas zatem potyczka AI vs. AI? Na razie, zdaniem ekspertów, sztuczna inteligencja może być wykorzystywana w złych celach m.in. do częściowego generowania ataków opartych o złośliwe oprogramowanie malware, działań phishingowych, ataków ransomware czy scamów telefonicznych i video. Szerszych zastosowań cyberprzestępcy bez wątpienia także już próbują, ale być może napotykają takie same problemy, jak specjaliści z zakresu cyberbezpieczeństwa. To co ich różni, to bez wątpienia nastawienie do standardów etycznych. Dbałość o prawidłowy model działania także może nie stanowić dla nich wystarczającego hamulca. Jak wygląda perspektywa drugiej strony?

W zakresie bezpieczeństwa systemy AI mogą być i są już częściowo bez wątpienia pomocne m.in. przy  monitoringu, segregowaniu alertów dotyczących potencjalnych ataków, identyfikowaniu wielokrotnych prób ataków będących częściami większych kampanii czy identyfikowaniu dróg, jakimi złośliwe oprogramowanie malware próbuje wniknąć do systemów, organizacji czy instytucji. Sztuczna inteligencja przyda się też wszędzie tam, gdzie trzeba przesiewać większe wolumeny danych i wykrywać w ich ramach rekordy, które mogą stanowić wartościowe informacje. Analiza i generowanie tekstów np. na potrzeby wsparcia użytkowników, poszukiwanie wartościowych informacji i podsumowywanie ich to także zadania, które spełni doskonale. Eksperci ds. cyberbezpieczeństwa zwracają jednak także uwagę na zastosowania, w ramach których zachować należy szeroko idącą ostrożność. Generatywne modele AI nie są np. przeznaczone do przetwarzania obliczeń liczbowych, informacji live i zastępowania zaawansowanych modeli kalkulacji ryzyka. Wnioski i porady generowane na ich podstawie powinny także być każdorazowo audytowane przez człowieka, nim staną się podstawą do podejmowania jakichkolwiek decyzji i aktywności. Do podejmowanie jakichkolwiek działań, związanych z fizycznym polem walki na podstawie rekomendacji AI zatem jeszcze daleka droga.

Systemy wciąż jeszcze niedoskonałe.

Czy zastosowanie sztucznej inteligencji w wyższego rzędu zadania z zakresu cyberbezpieczeństwa to wobec tego pieśń przyszłości, czy kwestia szybkiego udoskonalenia istniejących już modeli, które – jak wiemy – dynamicznie się uczą i rozwijają?

– Sztuczna inteligencja to potężne narzędzie, o wiele potężniejsze niż wszystko, co widzieliśmy wcześniej. Z jednej strony to dobrze, bo istnieją nowe obszary, w których możemy je wykorzystać. Wiąże się z tym jednak odpowiedzialność, a aspekt etyczny jest niezwykle ważny. Możemy znaleźć wiele pól, na których warto wykorzystywać te modele, ale problemem jest to, że nie zachowują się one jeszcze tak, jak byśmy tego oczekiwali. Aktualnie takie narzędzia nie są jeszcze wystarczająco niezawodne, abyśmy mogli w pełni z nich korzystać w dziedzinie cyberbezpieczeństwa. Wynika to z faktu, że nie zostały jeszcze odpowiednio „wytrenowane”, nie rozwiązaliśmy wszystkich problemów, a rozmiar i potęga sztucznej inteligencji wcale nam w tym nie pomaga – wyjaśnia Katarína Mayer, Principal Researcher, ESET.

AI może już przetwarzać ogromne ilości danych i np. zdawać egzaminy medyczne, ale odpowiedzialne zadania z zakresu cyberbezpieczeństwa są wyjątkowe. Wymagają wzmocnienia funkcji związanych z wnioskowaniem, które teraz jeszcze często bywa błędne oraz pracy z ustrukturyzowanymi danymi – co nadal nie jest mocną stroną AI. Problemy, jakie dostrzegają specjaliści to także m.in. fakt, że modele sztucznej inteligencji nie uczą się w taki sposób jak my, wiec trzeba opracować efektywne schematy zasilania ich wiedzą, wykraczające poza nasze nawyki.

– Przed nami jeszcze dużo pracy, ale wierzę, że w przyszłości AI zmieni krajobraz cyberbezpieczeństwa. Pozwoli udoskonalić narzędzia, a eksperci otrzymają możliwości sprawniejszej analizy danych, co przełoży się na przyspieszenie pewnych procesów. Dopracowane systemy pozwolą też np. na lepszą ochronę mniejszych instytucji, które nie mają obecnie środków na utrzymywanie zespołów zajmujących się cyberbezpieczeństwem – podsumowuje Jakub Dębski.

Newseria nie ponosi odpowiedzialności za treści oraz inne materiały (np. infografiki, zdjęcia) przekazywane w „Biurze Prasowym”, których autorami są zarejestrowani użytkownicy tacy jak agencje PR, firmy czy instytucje państwowe.
Ostatnio dodane
komunikaty PR z wybranej przez Ciebie kategorii
IT i technologie PROJEKTORY PANASONIC OŻYWIAJĄ STAROŻYTNY EFEZ W MUZEUM DOŚWIADCZEŃ IMMERSYJNYCH Biuro prasowe
2024-07-24 | 12:30

PROJEKTORY PANASONIC OŻYWIAJĄ STAROŻYTNY EFEZ W MUZEUM DOŚWIADCZEŃ IMMERSYJNYCH

Projektory laserowe DLP Panasonic zostały wybrane przez tureckie muzeum ze względu na swoją rozdzielczość 4K i wysoką jasność, które są niezbędne do projekcji na dużą skalę w
IT i technologie BRAK ZDJĘCIA
2024-07-24 | 01:00

Symfonia na rzecz edukacji MŚP: partnerstwo z Fundacją Digital Poland

Symfonia, producent i dostawca rozwiązań wspierających cyfryzację procesów biznesowych w MŚP, nawiązała współpracę z Fundacją Digital Poland. Partnerstwo to, podobnie jak uruchomione niedawno Symfonia Lab, wpisuje się w
IT i technologie Nowe życie Ogrodu Moneta z projektorami Panasonic
2024-07-23 | 12:00

Nowe życie Ogrodu Moneta z projektorami Panasonic

Kiedy FKP Scorpio i Temple Live Entertainment wpadli na pomysł przekształcenia impresjonistycznych arcydzieł Claude'a Moneta w wyjątkową, interaktywną wystawę w Szwecji, wiedzieli, że

Kalendarium

Więcej ważnych informacji

Konkurs Polskie Branży PR

Jedynka Newserii

Jedynka Newserii

Handel

Od przyszłego roku akcyza na e-liquidy ma wzrosnąć o 75 proc. To trzy razy więcej niż na tradycyjne papierosy

 Na rynku e-liquidów mamy największą szarą strefę, z którą fiskus niezbyt dobrze sobie radzi. Gwałtowna podwyżka akcyzy nie pomoże w rozwiązaniu tego problemu, tylko go spotęguje – mówi Piotr Leonarski, ekspert Federacji Przedsiębiorców Polskich. Krajowi producenci płynów do e-papierosów zaapelowali już do ministra finansów o rewizję planowanych podwyżek akcyzy na wyroby tytoniowe. W przypadku e-liquidów ma być ona największa i w 2025 roku wyniesie 75 proc. Branża podkreśla, że to przyczyni się do jeszcze większego rozrostu szarej strefy, a ponadto będzie zachętą dla konsumentów, żeby zamiast korzystać z alternatyw, wrócili do palenia tradycyjnych papierosów.

Infrastruktura

Zielone zamówienia publiczne stanowią dziś zaledwie kilka procent rynku. Rządowy zespół ma opracować specjalne kryteria dla nich

Zielone zamówienia publiczne stają się w ostatnich latach coraz bardziej powszechną praktyką, choć w Polsce odpowiadają za kilka procent ogólnej liczby zamówień. Duży nacisk na ten aspekt, w postaci nowych regulacji i wytycznych, kładzie także Unia Europejska. Dlatego też w maju br. zarządzeniem prezesa Rady Ministrów został powołany specjalny rządowy zespół, którego zadaniem będzie uwzględnienie aspektów środowiskowych w polskim systemie zamówień publicznych oraz opracowanie wytycznych dla zamawiających. – Ważne, żeby te opracowywane kryteria były dostosowane do realiów polskiego rynku – wskazuje Barbara Dzieciuchowicz, prezes Ogólnopolskiej Izby Gospodarczej Drogownictwa.

IT i technologie

Boom na sztuczną inteligencję w ochronie zdrowia ma dopiero nastąpić. Wyzwaniem pozostają regulacje i zaufanie do tej technologii

Sztuczna inteligencja ma potencjał, żeby zrewolucjonizować podejście do profilaktyki, diagnostyki i leczenia pacjentów, jednocześnie redukując ich koszty. W globalnej skali wartość rynku rozwiązań opartych na AI w opiece zdrowotnej rośnie lawinowo – w ub.r. wynosiła ponad 32 mld dol., ale do 2030 roku ta kwota ma się zwiększyć ponad sześciokrotnie. Również w Polsce narzędzia bazujące na AI zaczynają być wdrażane coraz szerzej, choć – jak wynika z lipcowego raportu SGH – prawdziwy rozwój potencjału sztucznej inteligencji w polskiej branży ochrony zdrowia ma dopiero nastąpić. Warunkiem jest stworzenie stabilnego i bezpiecznego środowiska dla rozwoju tej technologii, opartego na regulacjach prawnych i zaufaniu wszystkich interesariuszy.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.