Komunikaty PR

Sztuczna inteligencja a cyberkonflikt – czy AI nas zaatakuje, czy obroni?

2023-03-24  |  09:30
Kontakt
Patrycja Kaleta-Łuczynowicz
Linkleaders

Piotrkowska 148/150
90-631 Łódź
patrycja.kaleta|linkleaders.pl| |patrycja.kaleta|linkleaders.pl
505 223 994
https://www.linkleaders.pl/

Rozwój i szerszy dostęp do AI to nowe, kreatywne możliwości nie tylko dla biznesu i zwykłych użytkowników. Sztuczna inteligencja okazuje się niestety także doskonałym narzędziem do planowania działań cyberprzestępczych oraz eskalacji konfliktów politycznych i zbrojnych. Fałszowanie przekazów audio i video dla celów propagandowych, duże kampanie phishingowe, wielowątkowe cyberataki – to tylko niektóre z możliwych scenariuszy. Czy odpowiedzią na nie będą systemy bezpieczeństwa, zbudowane również w oparciu o AI? Jak wygląda teraźniejszość i jak wyglądać może przyszłość konfliktów zasilanych sztuczną inteligencją?

AI wśród najważniejszych cyberzagrożeń?

O możliwościach i zagrożeniach z tym związanych, dyskutowali w połowie maja uczestnicy odbywającej się w Warszawie konferencji „ESET European Cybersecurity Day”. Znaleźli się wśród nich zarówno przedstawiciele zagranicznych instytucji rządowych (m.in. Victor Zhora, zastępca szefa Państwowej Służby Łączności Specjalnej i Ochrony Informacji Ukrainy; Rastislav Janota, przewodniczący Komitetu ds. Cyberbezpieczeństwa, Narodowy Urząd Bezpieczeństwa, Słowacja), dużych korporacji (m.in. Santander Bank czy Microsoft), a także sektora prawnego i naukowego.

– Rządy i instytucje odgrywają kluczową rolę w ustalaniu zasad oraz przepisów dotyczących cyberbezpieczeństwa. Działania na rzecz bezpieczeństwa wymagają jednak również współdziałania z prywatnymi organizacjami. Zapewnienie wolnej, otwartej, stabilnej i bezpiecznej cyberprzestrzeni to nie tylko wspólny interes. To także wspólna odpowiedzialność, zarówno sektora publicznego, jak i prywatnego – podkreślała otwierając konferencję Andrea Elscheková Matisová, Ambasador Republiki Słowackiej w RP.

Panel „AI i cyberkonflikt” po raz pierwszy dołączył do agendy wydarzenia, w ramach którego omawiano wszystkie najaktualniejsze wyzwania, związane z zabezpieczaniem cyberprzestrzeni takie jak m.in. ochrona krytycznych elementów infrastruktury państwowej, zabezpieczenia sektora bankowego i finansowego czy bieżące regulacje na poziomie europejskim. To pokazuje, jak szybko sztuczna inteligencja i wyzwania z nią związane wykroczyły poza etap technologicznych i akademickich rozważań. Rozmowa o wykorzystaniu AI na polu walki – zarówno cyfrowym, jak i realnym – to już teraz dyskusja o konkretnych wyzwaniach, a przyszłość może być jeszcze bardziej zaskakująca.

Nie tylko ChatGPT

Eksperci podkreślają, że sztuczna inteligencja to nie tylko Chat GPT, narzędzie umiejące szczegółowo odpowiadać na zapytania w języku naturalnym czy pisać kod, ale również technologie pozwalające na replikację głosu (VALL-E), edycję wideo (Runway Gen-2) i generowanie obrazu (DALL-E, Stable Diffusion, Midjourney itp.). To jednak nadal nie wszystko, rozwijane są także kolejne, specjalistyczne modele, które można wykorzystać w cyberprzestrzeni – zarówno z dobrymi, jak i złymi intencjami.

– Postęp związany z inżynierią AI i uczeniem maszynowym daje zarówno cyberprzestępcom, jak i osobom zajmującym się bezpieczeństwem, zupełnie nowe możliwości. Nie zapominajmy, że to nie tylko rozwój Chat GPT czy myślenia maszynowego. Inne, bardziej wyspecjalizowane modele i algorytmy także dynamicznie się rozbudowują. Wiele tego typu rozwiązań opracowanych w ostatnim czasie posiada funkcje bardzo przydatne zarówno dla osób, które będą je chciały wykorzystać do dobrych, jak i złych celów. Wciąż pozostało jednak do rozwiązania wiele kwestii, związanych z ich prawidłową implementacją. Pojawia się wiele wyzwań związanych z wdrażaniem ich, by działały zgodnie z oczekiwaniami – mówi Jakub Dębski, Chief Product Officer w ESET.

AI vs. AI?

Czy i kiedy na cyfrowym polu walki czeka nas zatem potyczka AI vs. AI? Na razie, zdaniem ekspertów, sztuczna inteligencja może być wykorzystywana w złych celach m.in. do częściowego generowania ataków opartych o złośliwe oprogramowanie malware, działań phishingowych, ataków ransomware czy scamów telefonicznych i video. Szerszych zastosowań cyberprzestępcy bez wątpienia także już próbują, ale być może napotykają takie same problemy, jak specjaliści z zakresu cyberbezpieczeństwa. To co ich różni, to bez wątpienia nastawienie do standardów etycznych. Dbałość o prawidłowy model działania także może nie stanowić dla nich wystarczającego hamulca. Jak wygląda perspektywa drugiej strony?

W zakresie bezpieczeństwa systemy AI mogą być i są już częściowo bez wątpienia pomocne m.in. przy  monitoringu, segregowaniu alertów dotyczących potencjalnych ataków, identyfikowaniu wielokrotnych prób ataków będących częściami większych kampanii czy identyfikowaniu dróg, jakimi złośliwe oprogramowanie malware próbuje wniknąć do systemów, organizacji czy instytucji. Sztuczna inteligencja przyda się też wszędzie tam, gdzie trzeba przesiewać większe wolumeny danych i wykrywać w ich ramach rekordy, które mogą stanowić wartościowe informacje. Analiza i generowanie tekstów np. na potrzeby wsparcia użytkowników, poszukiwanie wartościowych informacji i podsumowywanie ich to także zadania, które spełni doskonale. Eksperci ds. cyberbezpieczeństwa zwracają jednak także uwagę na zastosowania, w ramach których zachować należy szeroko idącą ostrożność. Generatywne modele AI nie są np. przeznaczone do przetwarzania obliczeń liczbowych, informacji live i zastępowania zaawansowanych modeli kalkulacji ryzyka. Wnioski i porady generowane na ich podstawie powinny także być każdorazowo audytowane przez człowieka, nim staną się podstawą do podejmowania jakichkolwiek decyzji i aktywności. Do podejmowanie jakichkolwiek działań, związanych z fizycznym polem walki na podstawie rekomendacji AI zatem jeszcze daleka droga.

Systemy wciąż jeszcze niedoskonałe.

Czy zastosowanie sztucznej inteligencji w wyższego rzędu zadania z zakresu cyberbezpieczeństwa to wobec tego pieśń przyszłości, czy kwestia szybkiego udoskonalenia istniejących już modeli, które – jak wiemy – dynamicznie się uczą i rozwijają?

– Sztuczna inteligencja to potężne narzędzie, o wiele potężniejsze niż wszystko, co widzieliśmy wcześniej. Z jednej strony to dobrze, bo istnieją nowe obszary, w których możemy je wykorzystać. Wiąże się z tym jednak odpowiedzialność, a aspekt etyczny jest niezwykle ważny. Możemy znaleźć wiele pól, na których warto wykorzystywać te modele, ale problemem jest to, że nie zachowują się one jeszcze tak, jak byśmy tego oczekiwali. Aktualnie takie narzędzia nie są jeszcze wystarczająco niezawodne, abyśmy mogli w pełni z nich korzystać w dziedzinie cyberbezpieczeństwa. Wynika to z faktu, że nie zostały jeszcze odpowiednio „wytrenowane”, nie rozwiązaliśmy wszystkich problemów, a rozmiar i potęga sztucznej inteligencji wcale nam w tym nie pomaga – wyjaśnia Katarína Mayer, Principal Researcher, ESET.

AI może już przetwarzać ogromne ilości danych i np. zdawać egzaminy medyczne, ale odpowiedzialne zadania z zakresu cyberbezpieczeństwa są wyjątkowe. Wymagają wzmocnienia funkcji związanych z wnioskowaniem, które teraz jeszcze często bywa błędne oraz pracy z ustrukturyzowanymi danymi – co nadal nie jest mocną stroną AI. Problemy, jakie dostrzegają specjaliści to także m.in. fakt, że modele sztucznej inteligencji nie uczą się w taki sposób jak my, wiec trzeba opracować efektywne schematy zasilania ich wiedzą, wykraczające poza nasze nawyki.

– Przed nami jeszcze dużo pracy, ale wierzę, że w przyszłości AI zmieni krajobraz cyberbezpieczeństwa. Pozwoli udoskonalić narzędzia, a eksperci otrzymają możliwości sprawniejszej analizy danych, co przełoży się na przyspieszenie pewnych procesów. Dopracowane systemy pozwolą też np. na lepszą ochronę mniejszych instytucji, które nie mają obecnie środków na utrzymywanie zespołów zajmujących się cyberbezpieczeństwem – podsumowuje Jakub Dębski.

Newseria nie ponosi odpowiedzialności za treści oraz inne materiały (np. infografiki, zdjęcia) przekazywane w „Biurze Prasowym”, których autorami są zarejestrowani użytkownicy tacy jak agencje PR, firmy czy instytucje państwowe.
Źródło informacji: Linkleaders
Ostatnio dodane
komunikaty PR z wybranej przez Ciebie kategorii
IT i technologie Tworzenie MVP (Minimum Viable Product) i PoC (Proof of Concept) – dlaczego jest tak istotne? Biuro prasowe
2025-01-02 | 09:50

Tworzenie MVP (Minimum Viable Product) i PoC (Proof of Concept) – dlaczego jest tak istotne?

Jak zminimalizować ryzyko niepowodzenia przy tworzeniu strony internetowej? Odpowiedzią na to pytanie może być prototyping – przygotowanie wstępnej wersji pozwoli zidentyfikować
IT i technologie Newline VEGA Pro – już w Polsce!
2024-12-31 | 15:00

Newline VEGA Pro – już w Polsce!

VEGA Pro to wysokoefektywny monitor interaktywny przygotowany na każde korporacyjne wyzwanie – luksusowy i elegancki. Urządzenie jest już dostępne w warszawskim showroomie Newline
IT i technologie Zalman T4 Plus — nowa obudowa z podświetleniem Spectrum RGB
2024-12-31 | 12:20

Zalman T4 Plus — nowa obudowa z podświetleniem Spectrum RGB

Do oferty firmy Zalman trafiła właśnie nowa obudowa T4 Plus. To model dla oszczędnych konsumentów, którzy jednak cenią sobie porządne wykonanie oraz elegancki design. W

Kalendarium

Więcej ważnych informacji

NEWSERIA POLECA

Bezpieczeństwo najważniejsze dla pacjentów decydujących się na zabiegi korekty wad wzroku

Wady refrakcji, takie jak krótkowzroczność, astygmatyzm czy starczowzroczność, można skutecznie i trwale usunąć. Kwestii bezpieczeństwa zabiegów korekcji wad wzroku dotyczy najwięcej obaw pacjentów, którzy myślą o takim kroku. Tutaj z pomocą przychodzą certyfikaty spełnianych norm jakości, akredytacje poszczególnych placówek oraz potwierdzenie kwalifikacji lekarzy chirurgów.

Jedynka Newserii

Jedynka Newserii

Ochrona środowiska

Zamrożenie cen prądu do końca września br. Takie mechanizmy nie rozwiązują przyczyn problemu wysokich cen

Zgodnie z decyzją rządu zamrożenie cen energii dla gospodarstw domowych na poziomie 500 zł netto za 1 MWh zostało wydłużone do 30 września 2025 roku. Dzięki temu odbiorcy jeszcze przez co najmniej dziewięć miesięcy nie odczują  wzrostu rachunków za energię elektryczną. – Dopłaty jako sposób walki z wysokimi cenami energii nie są dobrym rozwiązaniem, bo one nie zlikwidują problemu. Znacznie prostszym rozwiązaniem byłby powrót do tańszych źródeł energii, w przypadku Polski takim tanim źródłem jest węgiel i elektrownia atomowa – ocenia europoseł z Konfederacji Marcin Sypniewski.

Prawo

Pracodawcy apelują o usprawnienie wydawania zezwoleń na pracę cudzoziemcom. Nowe regulacje tylko w części w tym pomogą

Projekt ustawy o warunkach dopuszczalności powierzania pracy cudzoziemcom na terytorium Polski został przyjęty w grudniu przez rząd i trafił już do Sejmu. Nowe przepisy zakładają pełną elektronizację wnioskowania i wydawania zezwoleń na pracę i rezygnację z testu rynku pracy. Niekoniecznie jednak oznacza to większą otwartość na pracowników z zagranicy. – To nie zmiana jakościowa, ale co najwyżej próba sanacji przeciążonego systemu – ocenia dr Michał Szypniewski z kancelarii BKB Baran Książek Bigaj.

IT i technologie

Centrum Implementacji Sztucznej Inteligencji ma wystartować w tym roku. Polskie wojsko coraz szerzej korzysta z tej technologii

– Opracowujemy koncepcję funkcjonowania Centrum Implementacji Sztucznej Inteligencji. Szkolimy też odpowiednio naszych inżynierów, współpracujemy z uczelniami wyższymi w tym aspekcie, aby mieć gotowy odpowiedni potencjał intelektualny – mówi gen. dyw. Karol Molenda, dowódca Komponentu Wojsk Obrony Cyberprzestrzeni. Nowa formacja będzie odpowiadać za opracowywanie i wdrażanie rozwiązań AI na potrzeby działań militarnych. Podobne instytucje są już powoływane przez inne kraje NATO.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.