Komunikaty PR

Cyberprzestępcy uczą się korzystać z AI - analiza Palo Alto Networks

2024-02-21  |  10:00
Kontakt
Monday PR
Monday PR Sp. z o.o. Sp.k.

Górskiego 9
00-033 Warszawa
biuro|mondaypr.pl| |biuro|mondaypr.pl
+48 224878421
www.mondaypr.pl

W momencie, gdy aż 90% dyrektorów finansowych planuje w 2024 zwiększyć nakłady firm na inteligentne narzędzia, przestępcy również nie próżnują. W perspektywie najbliższego roku możemy spodziewać się intensyfikacji działań dezinformacyjnych, wykorzystujących AI. Równolegle spodziewany jest wzrost zagrożeń o charakterze phishingowym. W ciągu najbliższych lat możemy także oczekiwać rozwoju niebezpiecznych copilotów, asystujących hackerom we wrogich działaniach. Przeczytaj analizę Palo Alto Networks i dowiedz się, w jakim kierunku zmierzają wdrożenia sztucznej inteligencji w cyberbezpieczeństwie. 

Omawiając rolę sztucznej inteligencji w cyberbezpieczeństwie, warto w pierwszej kolejności wziąć pod uwagę krótkoterminowe skutki. Pod pewnymi względami, jest to nieco nieznany obszar, wymagający wnikliwej perspektywy wykraczającej poza codzienny szum informacyjny.

Według Kyle Wilhoita, dyrektora ds. badań nad zagrożeniami, Unit 42 (Palo Alto Networks), w tym roku narzędzia AI odegrają kluczową rolę w akcjach dezinformacyjnych w mediach społecznościowych.
Takie kampanie mogą mieć miejsce przed, w trakcie i po ważnych wydarzeniach, takich jak konflikty zbrojne, imprezy masowe czy wybory. Będą nakierowane na podważenie zaufania do faktów wymagających weryfikacji i szerzenie niepokojów społecznych tłumaczy Kyle Wilhoit. - Chociaż trudno o niezbite dowody, informacje z otwartych źródeł jasno pokazują wzrost znaczenia AI w działaniach dezinformacyjnych – dodaje ekspert.

W związku ze zbliżającymi się wyborami prezydenckimi w Stanach Zjednoczonych eksperci spodziewają się zalewu dezinformacji tworzonej przez wiele różnych, czasem nawet przypadkowych osób. W codziennym szumie informacyjnym bardzo trudno odróżnić fałszywe lub spreparowane materiały audiowizualne od tych rzetelnych. – Chociaż nie jest to bezpośrednio związane z tradycyjnym bezpieczeństwem IT, to materiały typu deepfake zaczynają być łączone z atakami socjotechnicznymi. Skrzyżowanie inteligentnej technologii i technik manipulacyjnych zaczyna budzić niepokój specjalistów od cyberbezpieczeństwa. Zwłaszcza, że algorytmy stają się coraz bardziej dopracowane i umożliwiają ominięcie tradycyjnych mechanizmów obronnych, stosowanych powszechnie przez zespoły SOC (Security Operations Center)dodaje Kyle Wilhoit.

Cyberprzestępcy odkrywają nowe możliwości AI

W perspektywie średnioterminowej możemy się spodziewać, że cyberprzestępcy udoskonalą swoje narzędzia za pomocą sztucznej inteligencji. Na przykład, atakujący mogą poinstruować modele AI, aby zidentyfikowały zasoby internetowe organizacji z uruchomionymi odpowiednimi usługami, a to żeby z kolei pomóc w znalezieniu luk w zabezpieczeniach – Spodziewam się dalszego wzrostu złożonych zagrożeń. Cyberprzestępcy będą doskonalić swoje umiejętności z pomocą generatywnej sztucznej inteligencji. Chociaż algorytmy AI, takie jak modele językowe, asystują w obecnych operacjach hackerskich, to nie zostały jeszcze w pełni wykorzystane do tworzenia złośliwego oprogramowania lub prowadzenia kampanii na większą skalę – tłumaczy ekspert.

Wśród działań przestępczych wspieranych przez AI, możemy zaobserwować doskonalenie tekstów wiadomości phishingowych. Takie maile stają się bardziej przekonujące dzięki zastosowaniu poprawnych odniesień geograficznych, slangu i gramatycznie poprawnego tekstu. Przez to odbiorca może odnosić wrażenie, że to rzeczywisty mail. Eksperci spodziewają się także stosowania sztucznej inteligencji do prowadzenia działań rozpoznawczych, takich jak badanie odporności systemu. Dotyczy to analizy zakresu blokad sieci, dostępności otwartych usług / portów, a nawet skanowania luk w zabezpieczeniach.

Pilotowanie bezpieczeństwa z wykorzystaniem AI

Patrząc dalej w przyszłość, kwestią czasu jest wdrożenie copilotów bezpieczeństwa opartych na sztucznej inteligencji. Takie narzędzia mogą pomagać zarówno obrońcom jak i atakującym w różnych fazach ataku, takich jak ruch boczny i eskalacja uprawnień w zagrożonych środowiskach. Chociaż ta koncepcja nie jest jeszcze w pełni wdrożona, na branżowych forach padają pytania, w jaki sposób atakujący mogą wykorzystać takie narzędzia korzystające z algorytmów AI.

W ciągu ostatnich sześciu miesięcy branża cyberbezpieczeństwa szeroko komunikowała wdrażanie pilotów systemów AI bezpieczeństwa, które mają nam pomagać w codziennych operacjach. Niestety, coraz więcej doniesień wskazuje, że nie tylko uznane firmy takie jak Palo Alto Networks, pracują nad takimi rozwiązaniami. Do dostawców narzędzi biznesowych oferujących copiloty takich systemów dołączają grupy cyberprzestępcze, które na własny użytek rozwijają wirtualnych asystentów. Mogą one posłużyć mniej wprawnym hackerom do prowadzenia szkodliwych działań, zwiększając w ten sposób skalę atakówwyjaśnia Wojciech Gołębiewski, Wiceprezes i Dyrektor Zarządzający w Europie Wschodniej, Palo Alto Networks.

Z jednej strony, podręczny pilot bezpieczeństwa wspierający pracę SOC eliminuje czas potrzebny na manualną weryfikację fałszywie dodatniego lub fałszywie ujemnego wyniku, automatyzując ten proces. Z drugiej jednak strony, takie narzędzie przyspiesza pracę nie tylko cyber-obrońców, ale także cyberprzestępców. Dlatego w miarę ewolucji tej technologii, będzie ona prawdopodobnie kształtować sposób, w jaki praktycy bezpieczeństwa i personel SOC będą podchodzić do swoich ról i obowiązków.

Podsumowanie

Patrząc na wdrożenia algorytmów AI, w krótkim terminie powinniśmy szczegółowo obserwować kampanie dezinformacyjne i analizować ataki typu deepfake ito co się dzieje tu i teraz. W dalszej kolejności warto zwrócić uwagę na coraz bardziej wyrafinowane ataki phishingowe i próby rozpoznania elementów cyber-obrony oraz zaobserwować pojawienie się pilotów bezpieczeństwa opartych na sztucznej inteligencji, wykorzystywanych do ulepszania złośliwych działań. Ponieważ dziedzina cyberbezpieczeństwa nadal ewoluuje, jasne jest, że sztuczna inteligencja będzie siłą napędową zarówno w strategiach defensywnych, jak i ofensywnych. Organizacje i specjaliści ds. bezpieczeństwa muszą być na bieżąco informowani, dostosowywać swoje mechanizmy obronne i być przygotowani na skuteczne przeciwdziałanie zagrożeniom opartym na sztucznej inteligencji.

Newseria nie ponosi odpowiedzialności za treści oraz inne materiały (np. infografiki, zdjęcia) przekazywane w „Biurze Prasowym”, których autorami są zarejestrowani użytkownicy tacy jak agencje PR, firmy czy instytucje państwowe.
Ostatnio dodane
komunikaty PR z wybranej przez Ciebie kategorii
IT i technologie F5 Networks wzmacnia zespół liderów Biuro prasowe
2024-04-27 | 10:30

F5 Networks wzmacnia zespół liderów

Firma F5, Inc. (NASDAQ: FFIV), globalny lider w dziedzinie bezpieczeństwa i dostarczania aplikacji wielochmurowych, powołuje dwóch nowych członków zespołu kierowniczego. Lyra
IT i technologie Zatrzymać najlepszych – nowy raport IDEAS NCBR i OPI
2024-04-26 | 15:00

Zatrzymać najlepszych – nowy raport IDEAS NCBR i OPI

Świat goni za AI, prywatne firmy prześcigają się w kolejnych osiągnięciach, a na polskich uczelniach w kwestii edukacji w zakresie sztucznej inteligencji wciąż pozostaje wiele do
IT i technologie Strategiczna współpraca AWS i Deloitte
2024-04-26 | 13:00

Strategiczna współpraca AWS i Deloitte

AWS (Amazon Web Services) i Deloitte, wiodący dostawca usług consultingowych, zawarły nową wieloletnią umowę o strategicznej współpracy, aby pomóc organizacjom na

Kalendarium

Więcej ważnych informacji

Newseria na XVI Europejskim Kongresie Gospodarczym

Jedynka Newserii

Jedynka Newserii

Konsument

T-Mobile startuje w Polsce z nowym konceptem. Pozwoli klientom przetestować i doświadczyć najnowocześniejszych technologii

T-Mobile już od kilku lat realizuje strategię, która mocno skupia się na innowacjach i doświadczeniach klienta związanych z nowymi technologiami. Połączeniem obu tych elementów jest Magenta Experience Center – nowoczesny koncept, który ma zapewnić klientom możliwość samodzielnego przetestowania najnowszych technologii. Format, z sukcesem działający już na innych rynkach zachodnioeuropejskich, właśnie zadebiutował w Warszawie. Będą z niego mogli korzystać zarówno klienci indywidualni, jak i biznesowi.

Problemy społeczne

W Polsce brakuje dostępnych cenowo mieszkań. Eksperci mówią o kryzysie mieszkaniowym

 Większość osób – nawet ze średnimi, wcale nie najgorszymi dochodami – ma problem, żeby zaspokoić swoje potrzeby mieszkaniowe, ale też z tym, żeby po zaspokojeniu tych potrzeb, po opłaceniu wszystkich rachunków i opłat związanych z mieszkaniem, mieć jeszcze środki na godne życie – mówi Aleksandra Krugły z Fundacji Habitat for Humanity Poland. Jak wskazuje, problem stanowi nie tylko wysoki współczynnik przeciążenia kosztami mieszkaniowymi, ale i tzw. luka czynszowa, w której mieści się ponad 1/3 społeczeństwa. Tych problemów nie rozwiąże jednak samo zwiększanie liczby nowych lokali. Potrzebne są również rozwiązania, które umożliwią zaangażowanie sektora prywatnego w zwiększenie podaży dostępnych cenowo mieszkań na wynajem.

Konsument

Od 28 kwietnia Polacy żyją na ekologiczny kredyt. Zmiana zachowań konsumentów może odwrócić negatywny trend

Dzień Długu Ekologicznego, czyli data, do której zużyliśmy wszystkie zasoby, jakie w ciągu roku może zapewnić Ziemia, w tym roku w Polsce przypada 28 kwietnia, kilka dni wcześniej niż rok temu. Coroczne przyspieszenie tego terminu to sygnał, że czerpiemy bez umiaru z naturalnych systemów, nie dając im czasu na odbudowę. – Polskie społeczeństwo staje się coraz bardziej konsumpcyjne, kupujemy i wyrzucamy coraz więcej. Ale też nie mamy tak naprawdę efektywnego narzędzia, żeby temu zapobiec – ocenia Filip Piotrowski, ekspert ds. gospodarki obiegu zamkniętego z UNEP/GRID-Warszawa.

Partner serwisu

Instytut Monitorowania Mediów

Szkolenia

Akademia Newserii

Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.