Historia oszukiwania ludzi przez sztuczną inteligencję
Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (ML) przenosi phishing i inne oszustwa cybernetyczne na zupełnie nowy poziom, co jeszcze bardziej utrudnia organizacjom wykrycie i identyfikację zagrożenia. W porównaniu z ludzkimi cyberprzestępcami algorytmy uczą się wykorzystywać swoje ofiary na większą skalę i robią to efektywniej.
Korzystając z modeli języka głębokiego uczenia, takich jak GPT-3, hakerzy mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” — atak polegający na wysyłaniu spersonalizowanych wiadomości. Podczas konferencji lack Hat i Defcon w 2021 r. w Las Vegas zespół z singapurskiej Government Technology Agency zaprezentował eksperyment, w którym ich koledzy otrzymali dwa zestawy e-maili phishingowych — pierwszy napisał człowiek, a drugi algorytm. Zwycięzcą tej rywalizacji została sztuczna inteligencja, uzyskując znacznie więcej kliknięć w linki w e-mailach niż w wiadomościach napisanych przez człowieka. To oznacza, że przy rosnącej liczbie platform sztucznej inteligencji, hakerzy mogą skorzystać z niej jako taniej usługi, by dotrzeć do dużej liczby ofiar, a także spersonalizować swoje e-maile, aż do najdrobniejszych szczegółów.
Sztuczna inteligencja - długa historia oszustwa
Podczas gdy ataki AI jako usługa są stosunkowo nowym – i wciąż rzadkim – zjawiskiem, wiadomo, że maszyny oszukują ludzi od kilkudziesięciu lat. Joseph Weizenbaum napisał w latach sześćdziesiątych pierwszy program Eliza, który potrafił komunikować się w języku naturalnym i udawał psychoterapeutę.
Weizenbaum był zaskoczony, że jego pracownicy laboratorium MIT postrzegali coś, co obecnie nosi nazwę „chatbota”, jak prawdziwego lekarza. Podzielili się swoimi prywatnymi informacjami z Elizą i przeżyli wielki szok, gdy dowiedzieli się, że Weizenbaum mógł sprawdzić dzienniki rozmów między nimi, a „lekarzem”. Swojego zaskoczenia nie krył też Weizenbaum, który nie mógł uwierzyć, że prosty program może nakłonić użytkowników do ujawniania wrażliwych danych osobowych.
Niestety, ludzie wciąż ufają komputerom, a można nawet odnieść wrażenie, że stali się jeszcze bardziej podatni na tego typu manipulacje. Niedawno inżynier z Google ogłosił – ku zaskoczeniu kierownictwa i jego współpracowników – że firmowy chatbot AI LaMDA (Language Model for Dialogue Applications) ożył. Blake Lemoine powiedział, że wierzy, iż LaMDA jest czującym jak człowiek chatbotem. LaMDA potrafi tak dobrze naśladować ludzkie rozmowy, że udało mu się oszukać nawet doświadczonego inżyniera.
- Poziom ludzkiego zachowania i mimikry społecznej pozwala hakerom wykorzystywać narzędzia podobne do LaMDA do eksploracji danych w mediach społecznościowych i wysyłania lub publikowania wiadomości typu spear phishing - tłumaczy Mariusz Politowicz z firmy Marken, dystrybutor rozwiązań Bitdefender w Polsce.
Socjotechniki i deepfake wchodzą do akcji
Sztuczna inteligencja potrafi nie tylko naśladować konwersację. Zarówno transfer stylu głosu, znany również jako konwersja głosu (cyfrowe klonowanie głosu celu), jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę lub wydarzenie) należą do bardzo realnych cyberzagrożeń.
W 2019 roku, który zdaniem wielu ekspertów jest pierwszym udokumentowanym przypadkiem takiego ataku, oszuści wykorzystali konwersję głosu, by podszyć się pod prezesa i poprosić o pilny przelew środków (na ich konta). Rok później, w 2020 roku, kolejna grupa oszustów wykorzystała tę technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania 35 milionów dolarów na pokrycie „przejęcia”.
Oczekiwano takich ukierunkowanych ataków socjotechnicznych wykorzystujących sztuczną inteligencję, ale większość organizacji nie jest na to przygotowana. W ankiecie Attestiv 82 proc. liderów biznesu przyznało, że deepfake stanowi zagrożenie, ale mniej niż 30 proc. podjęło jakiekolwiek kroki, aby je zminimalizować.
Oszukiwanie oszusta AI
Przy tak wielu różnych cyberatakach trzeba być uważnym przez całą dobę, 365 dni w roku. Nic dziwnego, że organizacje coraz częściej nie radzą sobie z tego typu incydentami i zaczynają szukać wsparcia ze strony dostawców usług zarządzanych, specjalizujących się w cyberbezpieczeństwie.
- Cyberataki zaprojektowane przez systemy sztucznej inteligencji okazują się nad wyraz skuteczne. Są precyzyjnie ukierunkowane i trudne do przypisania. Technologie sztucznej inteligencji nieustannie rozszerzają istniejące zagrożenia cyberbezpieczeństwa, które potencjalnie mogą stać się zbyt „inteligentne”, aby ludzie mogli je zrozumieć - mówi Mariusz Politowicz.
Jak pokazuje historia, ludzi można łatwo oszukać, ale narzędzia sztucznej inteligencji również mogą okazać się pomocne. Deepfake należy zwalczać za pomocą algorytmów dostrojonych do ich wykrywania. Zaawansowane narzędzia analityczne mogą pomóc w oznaczeniu nieuczciwych lub podejrzanych działań. Modele uczenia maszynowego potrafią skutecznie powstrzymywać najbardziej wyrafinowane próby phishingu i oszustwa.
Źródło: marken.com.pl; bitdefender.pl

Emitel Partnerem Technologicznym Impact’25

Polki najbardziej przedsiębiorczymi kobietami w Unii Europejskiej. Jak w biznesie może pomóc im AI?

Nowa motorola edge 60 fusion już w Polsce
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Infrastruktura

Blackout w Hiszpanii i Portugalii ujawnił braki europejskiego systemu elektroenergetycznego. Niezbędna modernizacja sieci i połączeń między krajami
Komisja Europejska musi wyciągnąć wnioski z problemów z dostawami energii w Hiszpanii i Portugalii. Zapowiada też podjęcie działań, aby uniknąć takich poważnych blackoutów w przyszłości. Eksperci apelują przede wszystkim o inwestycje w modernizację sieci, by była ona gotowa na większą liczbę źródeł odnawialnych, a także w rozbudowę połączeń między państwami członkowskimi, dzięki czemu łatwiej będzie reagować na kryzysy.
Problemy społeczne
37 proc. Ukraińców nie wie, jak zaszczepić dziecko w Polsce. Potrzebna większa edukacja w tym zakresie

Choć trzech na czterech uchodźców z Ukrainy darzy polski system ochrony zdrowia dużym zaufaniem, to 21 proc. z nich ma problem z zaufaniem do samych szczepień. To dlatego wiele ukraińskich mam podejmuje decyzję o nieszczepieniu dziecka. Dużym wyzwaniem jest więc zwiększanie ich świadomości na temat korzyści płynących ze szczepień dla zdrowia jednostek i całej populacji, a także wyjaśnianie wątpliwości związanych z ewentualnymi skutkami ubocznymi. Tę rolę edukacyjną musi wziąć na siebie polski personel systemu ochrony zdrowia.
Telekomunikacja
Dyrektywa unijna zmienia podejście do cyberbezpieczeństwa. W Polsce trwają prace nad jej wdrożeniem

Według zapewnień rządu w tym kwartale zakończą się rządowe prace nad nowelizacją ustawy o krajowym systemie cyberbezpieczeństwa, która wdroży do polskiego prawa zapisy dyrektywy NIS2. Będzie to mieć istotne znaczenie dla kształtowania polityk cyberbezpieczeństwa przez duże i średnie podmioty zaliczane do kategorii kluczowych i ważnych. Choć pojawiają się głosy krytyczne, sugerujące, że regulacje są zbyt daleko idące, to eksperci od cyberbezpieczeństwa są przekonani, że akurat w tym obszarze mogą one przynieść szereg korzyści, zwłaszcza we współczesnych warunkach geopolitycznych.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.