Historia oszukiwania ludzi przez sztuczną inteligencję
Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (ML) przenosi phishing i inne oszustwa cybernetyczne na zupełnie nowy poziom, co jeszcze bardziej utrudnia organizacjom wykrycie i identyfikację zagrożenia. W porównaniu z ludzkimi cyberprzestępcami algorytmy uczą się wykorzystywać swoje ofiary na większą skalę i robią to efektywniej.
Korzystając z modeli języka głębokiego uczenia, takich jak GPT-3, hakerzy mogą łatwo uruchomić masowe kampanie phishingu typu „spear phishing” — atak polegający na wysyłaniu spersonalizowanych wiadomości. Podczas konferencji lack Hat i Defcon w 2021 r. w Las Vegas zespół z singapurskiej Government Technology Agency zaprezentował eksperyment, w którym ich koledzy otrzymali dwa zestawy e-maili phishingowych — pierwszy napisał człowiek, a drugi algorytm. Zwycięzcą tej rywalizacji została sztuczna inteligencja, uzyskując znacznie więcej kliknięć w linki w e-mailach niż w wiadomościach napisanych przez człowieka. To oznacza, że przy rosnącej liczbie platform sztucznej inteligencji, hakerzy mogą skorzystać z niej jako taniej usługi, by dotrzeć do dużej liczby ofiar, a także spersonalizować swoje e-maile, aż do najdrobniejszych szczegółów.
Sztuczna inteligencja - długa historia oszustwa
Podczas gdy ataki AI jako usługa są stosunkowo nowym – i wciąż rzadkim – zjawiskiem, wiadomo, że maszyny oszukują ludzi od kilkudziesięciu lat. Joseph Weizenbaum napisał w latach sześćdziesiątych pierwszy program Eliza, który potrafił komunikować się w języku naturalnym i udawał psychoterapeutę.
Weizenbaum był zaskoczony, że jego pracownicy laboratorium MIT postrzegali coś, co obecnie nosi nazwę „chatbota”, jak prawdziwego lekarza. Podzielili się swoimi prywatnymi informacjami z Elizą i przeżyli wielki szok, gdy dowiedzieli się, że Weizenbaum mógł sprawdzić dzienniki rozmów między nimi, a „lekarzem”. Swojego zaskoczenia nie krył też Weizenbaum, który nie mógł uwierzyć, że prosty program może nakłonić użytkowników do ujawniania wrażliwych danych osobowych.
Niestety, ludzie wciąż ufają komputerom, a można nawet odnieść wrażenie, że stali się jeszcze bardziej podatni na tego typu manipulacje. Niedawno inżynier z Google ogłosił – ku zaskoczeniu kierownictwa i jego współpracowników – że firmowy chatbot AI LaMDA (Language Model for Dialogue Applications) ożył. Blake Lemoine powiedział, że wierzy, iż LaMDA jest czującym jak człowiek chatbotem. LaMDA potrafi tak dobrze naśladować ludzkie rozmowy, że udało mu się oszukać nawet doświadczonego inżyniera.
- Poziom ludzkiego zachowania i mimikry społecznej pozwala hakerom wykorzystywać narzędzia podobne do LaMDA do eksploracji danych w mediach społecznościowych i wysyłania lub publikowania wiadomości typu spear phishing - tłumaczy Mariusz Politowicz z firmy Marken, dystrybutor rozwiązań Bitdefender w Polsce.
Socjotechniki i deepfake wchodzą do akcji
Sztuczna inteligencja potrafi nie tylko naśladować konwersację. Zarówno transfer stylu głosu, znany również jako konwersja głosu (cyfrowe klonowanie głosu celu), jak i deepfake (fałszywe zdjęcie lub film przedstawiający osobę lub wydarzenie) należą do bardzo realnych cyberzagrożeń.
W 2019 roku, który zdaniem wielu ekspertów jest pierwszym udokumentowanym przypadkiem takiego ataku, oszuści wykorzystali konwersję głosu, by podszyć się pod prezesa i poprosić o pilny przelew środków (na ich konta). Rok później, w 2020 roku, kolejna grupa oszustów wykorzystała tę technologię do naśladowania głosu klienta, aby przekonać menedżera banku do przekazania 35 milionów dolarów na pokrycie „przejęcia”.
Oczekiwano takich ukierunkowanych ataków socjotechnicznych wykorzystujących sztuczną inteligencję, ale większość organizacji nie jest na to przygotowana. W ankiecie Attestiv 82 proc. liderów biznesu przyznało, że deepfake stanowi zagrożenie, ale mniej niż 30 proc. podjęło jakiekolwiek kroki, aby je zminimalizować.
Oszukiwanie oszusta AI
Przy tak wielu różnych cyberatakach trzeba być uważnym przez całą dobę, 365 dni w roku. Nic dziwnego, że organizacje coraz częściej nie radzą sobie z tego typu incydentami i zaczynają szukać wsparcia ze strony dostawców usług zarządzanych, specjalizujących się w cyberbezpieczeństwie.
- Cyberataki zaprojektowane przez systemy sztucznej inteligencji okazują się nad wyraz skuteczne. Są precyzyjnie ukierunkowane i trudne do przypisania. Technologie sztucznej inteligencji nieustannie rozszerzają istniejące zagrożenia cyberbezpieczeństwa, które potencjalnie mogą stać się zbyt „inteligentne”, aby ludzie mogli je zrozumieć - mówi Mariusz Politowicz.
Jak pokazuje historia, ludzi można łatwo oszukać, ale narzędzia sztucznej inteligencji również mogą okazać się pomocne. Deepfake należy zwalczać za pomocą algorytmów dostrojonych do ich wykrywania. Zaawansowane narzędzia analityczne mogą pomóc w oznaczeniu nieuczciwych lub podejrzanych działań. Modele uczenia maszynowego potrafią skutecznie powstrzymywać najbardziej wyrafinowane próby phishingu i oszustwa.
Źródło: marken.com.pl; bitdefender.pl

Cyberbezpieczeństwo dla firm – skuteczne rozwiązania iIT Distribution Polska

Emitel Partnerem Technologicznym Impact’25

Polki najbardziej przedsiębiorczymi kobietami w Unii Europejskiej. Jak w biznesie może pomóc im AI?
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Transport

Import materiałów budowlanych z Rosji zagrożeniem dla konkurencyjności europejskiego rynku. Konieczne są zmiany i egzekwowanie sankcji
Unia Europejska powinna zrewidować politykę celną na import materiałów budowlanych spoza państw członkowskich, w tym państw wschodnich – twierdzą uczestnicy konferencji „Bezpieczeństwo gospodarcze UE”. Obecnie Wspólnota nakłada na europejskich producentów coraz więcej ograniczeń, nie rewidując polityki celnej, co przekłada się na systematyczne osłabienie konkurencyjności przedsiębiorstw, spadek produkcji i zagrożenie dla miejsc pracy.
Konsument
Polacy odczuwają brak wiedzy na temat inwestowania. Może to sprzyjać podejmowaniu nieracjonalnych decyzji finansowych

Co trzeci Polak odczuwa brak wiedzy w obszarze inwestowania, a tylko co piąty chciałby pogłębić swoją wiedzę na ten temat – wynika z badania „Poziom wiedzy finansowej Polaków 2025”. Ci, którzy na własną rękę szukają informacji i porad, coraz częściej sięgają do blogów, portali, podcastów i wideo w internecie. Eksperci przestrzegają, że finansowych i inwestycyjnych porad udzielają nie tylko specjaliści w danej dziedzinie, więc potrzebna jest zasada ograniczonego zaufania.
Handel
Do 2030 roku liczba plastikowych opakowań w e-handlu modowym może się podwoić. Ich udział najszybciej rośnie w Polsce

Wraz ze wzrostem kanału e-commerce w branży modowej rośnie liczba wykorzystywanych opakowań, z których znaczną część wciąż stanowią te z plastiku. Do 2030 roku w Polsce e-sprzedawcy zużyją 147 mln plastikowych opakowań – wynika z badania przeprowadzonego na zlecenie DS Smith. Można zauważyć rosnący trend wśród marek modowych, które coraz częściej wybierają opakowania wykonane z papieru lub materiałów z recyklingu. To o tyle istotne, że polscy konsumenci odczuwają wyrzuty sumienia z powodu ilości plastiku, w którym dostarczane są ich zamówienia.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.