Historia oszukiwania ludzi przez sztuczną inteligencję
Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (ML) przenosi phishing i inne oszustwa cybernetyczne na zupełnie nowy poziom, co jeszcze bardziej utrudnia organizacjom wykrycie i identyfikację zagrożenia. W porównaniu z ludzkimi cyberprzestępcami algorytmy uczą się wykorzystywać swoje ofiary na większą skalę i robią to efektywniej.
Korzystając z modeli języka głębokiego uczenia, takich jak GPT-3, hakerzy mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” — atak polegający na wysyłaniu spersonalizowanych wiadomości. Podczas konferencji lack Hat i Defcon w 2021 r. w Las Vegas zespół z singapurskiej Government Technology Agency zaprezentował eksperyment, w którym ich koledzy otrzymali dwa zestawy e-maili phishingowych — pierwszy napisał człowiek, a drugi algorytm. Zwycięzcą tej rywalizacji została sztuczna inteligencja, uzyskując znacznie więcej kliknięć w linki w e-mailach niż w wiadomościach napisanych przez człowieka. To oznacza, że przy rosnącej liczbie platform sztucznej inteligencji, hakerzy mogą skorzystać z niej jako taniej usługi, by dotrzeć do dużej liczby ofiar, a także spersonalizować swoje e-maile, aż do najdrobniejszych szczegółów.
Sztuczna inteligencja - długa historia oszustwa
Podczas gdy ataki AI jako usługa są stosunkowo nowym – i wciąż rzadkim – zjawiskiem, wiadomo, że maszyny oszukują ludzi od kilkudziesięciu lat. Joseph Weizenbaum napisał w latach sześćdziesiątych pierwszy program Eliza, który potrafił komunikować się w języku naturalnym i udawał psychoterapeutę.
Weizenbaum był zaskoczony, że jego pracownicy laboratorium MIT postrzegali coś, co obecnie nosi nazwę „chatbota”, jak prawdziwego lekarza. Podzielili się swoimi prywatnymi informacjami z Elizą i przeżyli wielki szok, gdy dowiedzieli się, że Weizenbaum mógł sprawdzić dzienniki rozmów między nimi, a „lekarzem”. Swojego zaskoczenia nie krył też Weizenbaum, który nie mógł uwierzyć, że prosty program może nakłonić użytkowników do ujawniania wrażliwych danych osobowych.
Niestety, ludzie wciąż ufają komputerom, a można nawet odnieść wrażenie, że stali się jeszcze bardziej podatni na tego typu manipulacje. Niedawno inżynier z Google ogłosił – ku zaskoczeniu kierownictwa i jego współpracowników – że firmowy chatbot AI LaMDA (Language Model for Dialogue Applications) ożył. Blake Lemoine powiedział, że wierzy, iż LaMDA jest czującym jak człowiek chatbotem. LaMDA potrafi tak dobrze naśladować ludzkie rozmowy, że udało mu się oszukać nawet doświadczonego inżyniera.
- Poziom ludzkiego zachowania i mimikry społecznej pozwala hakerom wykorzystywać narzędzia podobne do LaMDA do eksploracji danych w mediach społecznościowych i wysyłania lub publikowania wiadomości typu spear phishing - tłumaczy Mariusz Politowicz z firmy Marken, dystrybutor rozwiązań Bitdefender w Polsce.
Socjotechniki i deepfake wchodzą do akcji
Sztuczna inteligencja potrafi nie tylko naśladować konwersację. Zarówno transfer stylu głosu, znany również jako konwersja głosu (cyfrowe klonowanie głosu celu), jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę lub wydarzenie) należą do bardzo realnych cyberzagrożeń.
W 2019 roku, który zdaniem wielu ekspertów jest pierwszym udokumentowanym przypadkiem takiego ataku, oszuści wykorzystali konwersję głosu, by podszyć się pod prezesa i poprosić o pilny przelew środków (na ich konta). Rok później, w 2020 roku, kolejna grupa oszustów wykorzystała tę technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania 35 milionów dolarów na pokrycie „przejęcia”.
Oczekiwano takich ukierunkowanych ataków socjotechnicznych wykorzystujących sztuczną inteligencję, ale większość organizacji nie jest na to przygotowana. W ankiecie Attestiv 82 proc. liderów biznesu przyznało, że deepfake stanowi zagrożenie, ale mniej niż 30 proc. podjęło jakiekolwiek kroki, aby je zminimalizować.
Oszukiwanie oszusta AI
Przy tak wielu różnych cyberatakach trzeba być uważnym przez całą dobę, 365 dni w roku. Nic dziwnego, że organizacje coraz częściej nie radzą sobie z tego typu incydentami i zaczynają szukać wsparcia ze strony dostawców usług zarządzanych, specjalizujących się w cyberbezpieczeństwie.
- Cyberataki zaprojektowane przez systemy sztucznej inteligencji okazują się nad wyraz skuteczne. Są precyzyjnie ukierunkowane i trudne do przypisania. Technologie sztucznej inteligencji nieustannie rozszerzają istniejące zagrożenia cyberbezpieczeństwa, które potencjalnie mogą stać się zbyt „inteligentne”, aby ludzie mogli je zrozumieć - mówi Mariusz Politowicz.
Jak pokazuje historia, ludzi można łatwo oszukać, ale narzędzia sztucznej inteligencji również mogą okazać się pomocne. Deepfake należy zwalczać za pomocą algorytmów dostrojonych do ich wykrywania. Zaawansowane narzędzia analityczne mogą pomóc w oznaczeniu nieuczciwych lub podejrzanych działań. Modele uczenia maszynowego potrafią skutecznie powstrzymywać najbardziej wyrafinowane próby phishingu i oszustwa.
Źródło: marken.com.pl; bitdefender.pl
Nowe życie Ogrodu Moneta z projektorami Panasonic
SOFTSWISS wzmacnia swoją pozycję na polskim rynku i świętuje 15-lecie
realme 12 w promocyjnej cenie na start sprzedaży
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Ochrona środowiska
Polska wciąż bez strategii transformacji energetyczno-klimatycznej. Zaktualizowanie dokumentów mogłoby przyspieszyć i uporządkować ten proces
Prace nad nowym Krajowym planem w dziedzinie energii i klimatu powinny, zgodnie z unijnymi zobowiązaniami, zakończyć się w czerwcu br., ale do tej pory nie trafił on do konsultacji społecznych. Trzydzieści organizacji branżowych i społecznych zaapelowało do Ministerstwa Klimatu i Środowiska o przyspieszenie prac nad dokumentem i jego rzetelne konsultacje. Jak podkreśliły, nie powinien on być rozpatrywany tylko jako obowiązek do wypełnienia, lecz również jako szansa na przyspieszenie i uporządkowanie procesu transformacji energetyczno-klimatycznej w kraju. Polska pozostaje jedynym państwem w UE, który nie przedstawił długoterminowej strategii określającej nasz wkład w osiągnięcie neutralności klimatycznej UE do 2050 roku.
Bankowość
Firmy mogą się już ubiegać o fundusze z nowej perspektywy. Opcji finansowania jest wiele, ale nie wszystkie przedsiębiorstwa o tym wiedzą
Dla polskich firm środki UE są jedną z najchętniej wykorzystywanych form finansowania inwestycji i projektów rozwojowych. W bieżącej perspektywie finansowej na lata 2021–2027 Polska pozostanie jednym z największych beneficjentów funduszy z polityki spójności – otrzyma łącznie ok. 170 mld euro, z których duża część trafi właśnie do krajowych przedsiębiorstw. Na to nakładają się również środki z KPO i programów ramowych zarządzanych przez Komisję Europejską. Możliwości finansowania jest wiele, ale nie wszystkie firmy wiedzą, gdzie i jak ich szukać. Tutaj eksperci widzą zadanie dla banków.
Ochrona środowiska
Biznes chętnie inwestuje w OZE. Fotowoltaika na własnym gruncie najchętniej wybieranym rozwiązaniem
Możliwości związanych z inwestowaniem w zieloną energię jest bardzo dużo, jednak to fotowoltaika na własnych gruntach jest najchętniej wybieranym przez biznes rozwiązaniem OZE. Specjaliści zwracają uwagę, że wydłużył się okres zwrotu z takiej inwestycji, mimo tego nadal jest atrakcyjny, szczególnie w modelu PV-as-a-service. Dlatego też firm inwestujących w produkcję energii ze słońca może wciąż przybywać.
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.