Historia oszukiwania ludzi przez sztuczną inteligencję
Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (ML) przenosi phishing i inne oszustwa cybernetyczne na zupełnie nowy poziom, co jeszcze bardziej utrudnia organizacjom wykrycie i identyfikację zagrożenia. W porównaniu z ludzkimi cyberprzestępcami algorytmy uczą się wykorzystywać swoje ofiary na większą skalę i robią to efektywniej.
Korzystając z modeli języka głębokiego uczenia, takich jak GPT-3, hakerzy mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” — atak polegający na wysyłaniu spersonalizowanych wiadomości. Podczas konferencji lack Hat i Defcon w 2021 r. w Las Vegas zespół z singapurskiej Government Technology Agency zaprezentował eksperyment, w którym ich koledzy otrzymali dwa zestawy e-maili phishingowych — pierwszy napisał człowiek, a drugi algorytm. Zwycięzcą tej rywalizacji została sztuczna inteligencja, uzyskując znacznie więcej kliknięć w linki w e-mailach niż w wiadomościach napisanych przez człowieka. To oznacza, że przy rosnącej liczbie platform sztucznej inteligencji, hakerzy mogą skorzystać z niej jako taniej usługi, by dotrzeć do dużej liczby ofiar, a także spersonalizować swoje e-maile, aż do najdrobniejszych szczegółów.
Sztuczna inteligencja - długa historia oszustwa
Podczas gdy ataki AI jako usługa są stosunkowo nowym – i wciąż rzadkim – zjawiskiem, wiadomo, że maszyny oszukują ludzi od kilkudziesięciu lat. Joseph Weizenbaum napisał w latach sześćdziesiątych pierwszy program Eliza, który potrafił komunikować się w języku naturalnym i udawał psychoterapeutę.
Weizenbaum był zaskoczony, że jego pracownicy laboratorium MIT postrzegali coś, co obecnie nosi nazwę „chatbota”, jak prawdziwego lekarza. Podzielili się swoimi prywatnymi informacjami z Elizą i przeżyli wielki szok, gdy dowiedzieli się, że Weizenbaum mógł sprawdzić dzienniki rozmów między nimi, a „lekarzem”. Swojego zaskoczenia nie krył też Weizenbaum, który nie mógł uwierzyć, że prosty program może nakłonić użytkowników do ujawniania wrażliwych danych osobowych.
Niestety, ludzie wciąż ufają komputerom, a można nawet odnieść wrażenie, że stali się jeszcze bardziej podatni na tego typu manipulacje. Niedawno inżynier z Google ogłosił – ku zaskoczeniu kierownictwa i jego współpracowników – że firmowy chatbot AI LaMDA (Language Model for Dialogue Applications) ożył. Blake Lemoine powiedział, że wierzy, iż LaMDA jest czującym jak człowiek chatbotem. LaMDA potrafi tak dobrze naśladować ludzkie rozmowy, że udało mu się oszukać nawet doświadczonego inżyniera.
- Poziom ludzkiego zachowania i mimikry społecznej pozwala hakerom wykorzystywać narzędzia podobne do LaMDA do eksploracji danych w mediach społecznościowych i wysyłania lub publikowania wiadomości typu spear phishing - tłumaczy Mariusz Politowicz z firmy Marken, dystrybutor rozwiązań Bitdefender w Polsce.
Socjotechniki i deepfake wchodzą do akcji
Sztuczna inteligencja potrafi nie tylko naśladować konwersację. Zarówno transfer stylu głosu, znany również jako konwersja głosu (cyfrowe klonowanie głosu celu), jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę lub wydarzenie) należą do bardzo realnych cyberzagrożeń.
W 2019 roku, który zdaniem wielu ekspertów jest pierwszym udokumentowanym przypadkiem takiego ataku, oszuści wykorzystali konwersję głosu, by podszyć się pod prezesa i poprosić o pilny przelew środków (na ich konta). Rok później, w 2020 roku, kolejna grupa oszustów wykorzystała tę technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania 35 milionów dolarów na pokrycie „przejęcia”.
Oczekiwano takich ukierunkowanych ataków socjotechnicznych wykorzystujących sztuczną inteligencję, ale większość organizacji nie jest na to przygotowana. W ankiecie Attestiv 82 proc. liderów biznesu przyznało, że deepfake stanowi zagrożenie, ale mniej niż 30 proc. podjęło jakiekolwiek kroki, aby je zminimalizować.
Oszukiwanie oszusta AI
Przy tak wielu różnych cyberatakach trzeba być uważnym przez całą dobę, 365 dni w roku. Nic dziwnego, że organizacje coraz częściej nie radzą sobie z tego typu incydentami i zaczynają szukać wsparcia ze strony dostawców usług zarządzanych, specjalizujących się w cyberbezpieczeństwie.
- Cyberataki zaprojektowane przez systemy sztucznej inteligencji okazują się nad wyraz skuteczne. Są precyzyjnie ukierunkowane i trudne do przypisania. Technologie sztucznej inteligencji nieustannie rozszerzają istniejące zagrożenia cyberbezpieczeństwa, które potencjalnie mogą stać się zbyt „inteligentne”, aby ludzie mogli je zrozumieć - mówi Mariusz Politowicz.
Jak pokazuje historia, ludzi można łatwo oszukać, ale narzędzia sztucznej inteligencji również mogą okazać się pomocne. Deepfake należy zwalczać za pomocą algorytmów dostrojonych do ich wykrywania. Zaawansowane narzędzia analityczne mogą pomóc w oznaczeniu nieuczciwych lub podejrzanych działań. Modele uczenia maszynowego potrafią skutecznie powstrzymywać najbardziej wyrafinowane próby phishingu i oszustwa.
Źródło: marken.com.pl; bitdefender.pl

Polski biznes nie jest przygotowany na cyberzagrożenia

Cyberbezpieczeństwo dla firm – skuteczne rozwiązania iIT Distribution Polska

Emitel Partnerem Technologicznym Impact’25
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Handel

Ważą się losy wymiany handlowej między Stanami Zjednoczonymi a Unią Europejską. Na wysokich cłach stracą obie strony
Komisja Europejska przedstawiła w poniedziałek propozycję ceł na import z USA o wartości 72 mld euro, co ma być odpowiedzią na nałożenie 30-proc. stawek na import z UE zapowiedziane przez Amerykanów w poprzednim tygodniu. Przedstawiciele KE wciąż widzą jednak potencjał kontynuowania negocjacji. Zdaniem europosła Michała Koboski brak porozumienia lub uzgodnienie stawek wyższych niż 10-proc. nie tylko zaszkodzi obydwu stronom, ale i osłabi ich pozycję na arenie międzynarodowej.
Handel
Nie tylko konsumenci starają się kupować bardziej odpowiedzialne. Część firm już stawia na to mocny nacisk

Kwestie równoważonych zakupów stają się elementem strategii ESG. Dostawy energii, zamówienia surowców i materiałów do produkcji czy elementów wyposażenia biur – na każdym etapie swoich zakupów firmy mogą dziś decydować między opcjami bardziej i mniej zrównoważonymi. Dotyczy to także zamówień rzeczy codziennego użytku dla pracowników czy środków czystości – wskazują eksperci Lyreco, e-sklepu, który prowadzi sprzedaż produktów do biur, pokazując ich wpływ na środowisko czy efektywność pracy.
Prawo
Unia Europejska wzmacnia ochronę najmłodszych. Parlament Europejski chce, by test praw dziecka był nowym standardem w legislacji

Parlament Europejski chciałby tzw. testu praw dziecka dla każdego aktu prawnego wychodzącego z Komisji Europejskiej. – Każda nowa legislacja Unii Europejskiej powinna być sprawdzana pod kątem wpływu na prawa dziecka – zapowiada Ewa Kopacz, wiceprzewodnicząca PE. Jak podkreśla, głos dzieci jest coraz lepiej słyszalny w UE i jej różnych politykach. Same dzieci wskazują na ważne dla siebie kwestie, którymi UE powinna się zajmować. Wśród nich są wyzwania w obszarze cyfrowym i edukacyjnym.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.