
May 29, 2024 – Rozwój deepfake’ów i generatywnych AI Według Pindropa, powoduje wzrost liczby oszustw w centrach kontaktowych's Raport Voice Intelligence and Security Report 2024. Pindrop, światowy lider w dziedzinie bezpieczeństwa głosu i uwierzytelniania, rzuca światło na najnowsze trendy, zagrożenia i rozwiązania w obszarze bezpieczeństwa głosu. Jednym z najbardziej niepokojących trendów podkreślonych w raporcie jest rosnące wykorzystanie technologii deepfake do działań oszukańczych.
Deepfakes, będące połączeniem „głębokiego uczenia się” i „fałszywości”, to wyrafinowane fałszerstwa tworzone przy użyciu sztuczna inteligencja (AI). Potrafią naśladować osobę's głos, twarz lub działania mające na celu oszukanie innych. Według Pindrop's raport, ataki deepfake ewoluują w niespotykanym dotąd tempie, dzięki postępom w Generative AI. Oszuści stają się coraz bardziej biegli w tworzeniu deepfake, co stanowi poważne zagrożenie dla centrów kontaktowych i firm.
W raporcie ostrzega się, że jeśli nie podejmie się kontroli, oszustwo typu deepfake może przerodzić się w problem wart 5 miliardów dolarów. Jest to szczególnie niepokojące, biorąc pod uwagę, że w ciągu ostatnich dwóch lat liczba oszustw związanych z centrami kontaktowymi wzrosła już o 60%. Wzrost ten można przypisać wzrostowi liczby naruszeń danych, kradzieży tożsamości, rozpoznaniu kont, a obecnie także generatywnej sztucznej inteligencji.
Instytucje finansowe w dalszym ciągu ponoszą główny ciężar prób oszustw. Jednakże sektor e-commerce jest świadkiem szybkiego wzrostu wskaźników oszustw, które według prognoz mają wzrosnąć o 166% w 2024 r. Podkreśla to pilną potrzebę wprowadzenia solidnych środków bezpieczeństwa połączeń głosowych we wszystkich branżach.
Deepfakes to nie tylko przyszłe zagrożenie; już infiltrują contact center. Oszuści testują grunt, uczą się skalować swoje ataki i wykorzystują luki w istniejących systemach bezpieczeństwa. Średni czas uwierzytelniania w contact center wydłużył się z 30 do 46 sekund (+53%) w latach 2020–2023. Prowadzi to nie tylko do wyższych kosztów, ale także do niższych satysfakcja konsumenta oceny.
W odpowiedzi na te wyzwania firma Pindrop wprowadziła Pindrop® Gwarancja na fałszywe urządzenia Pulse, pierwszy w branży. Ta gwarancja jest częścią Pindrop's zobowiązanie do utrzymania pozycji lidera innowacji w zakresie bezpieczeństwa komunikacji głosowej, zwłaszcza w obliczu nowych zagrożeń, takich jak deepfake.

Pindrop's rozwiązanie wykorzystuje najnowocześniejszą technologię AI i algorytmy uczenia maszynowego do wykrywania i zapobiegania atakom deepfake. Firma's Silnik biometryczny Deep Voice®, technologia Phoneprinting® i narzędzia do analizy zachowań współpracują ze sobą, aby zapewnić kompleksowe bezpieczeństwo głosu.
Silnik biometryczny Deep Voice® wykorzystuje AI analizować i weryfikować mówcę's unikalne cechy głosu. Z drugiej strony technologia Phoneprinting® tworzy unikalny „odcisk palca” dla każdego połączenia, pomagając identyfikować i blokować oszukańcze połączenia. Narzędzia analizy zachowań monitorują wzorce i zachowania połączeń, aby wykryć anomalie i potencjalne oszustwo.
Pindrop's rozwiązania bezpieczeństwa głosowego nie ograniczają się do konkretnych branż. Firma oferuje rozwiązania dostosowane do potrzeb różnych sektorów, w tym bankowości i finansów, ubezpieczeń, call center, telewizji i rozrywki, motoryzacji i inteligentnego domu.
Raport dotyczący inteligencji i bezpieczeństwa głosu za rok 2024 stanowi sygnał alarmowy dla firm, aby ponownie oceniły swoje strategie bezpieczeństwa głosu. W miarę jak technologia deepfake staje się coraz bardziej wyrafinowana, tradycyjne środki bezpieczeństwa już nie wystarczają. Firmy muszą wdrożyć rozwiązania zaawansowane bezpieczeństwo głosu rozwiązania, takie jak te oferowane przez Pindrop, w celu ochrony klientów i reputacji marki.
Notoryczne przypadki wymierzone w główne centra kontaktowe
W ostatnich latach coraz częściej wykorzystuje się technologię deepfake do atakowania centrów kontaktowych, co prowadzi do znacznych szkód finansowych i reputacyjnych. Oto niektóre z najbardziej godnych uwagi przypadków:
1. Napad na instytucję finansową:
Incydent: Fałszywy głos naśladujący członka kadry kierowniczej wyższego szczebla został poinstruowany przedstawiciela centrum kontaktowego, aby przelał dużą sumę pieniędzy na nowe konto.
Wpływ: Centrum kontaktowe, wierząc, że żądanie jest uzasadnione, ułatwiło przelew, co spowodowało stratę kilku milionów dolarów przed wykryciem oszustwa.
2. Oszustwo telekomunikacyjne:
Incydent: Oszuści wykorzystali m.in głęboki, fałszywy głos podszywać się pod wysokiego rangą urzędnika w dużej firmie telekomunikacyjnej i polecać pracownikom contact center zmianę danych konta i umożliwienie dostępu do wrażliwych danych klientów.
Wpływ: Naruszenie doprowadziło do nieuprawnionego dostępu do kont klientów, powodując powszechną kradzież danych i znaczne straty finansowe.
3. Oszustwo związane z roszczeniami ubezpieczeniowymi:
Incydent: Do zgłoszenia fałszywego zgłoszenia użyto fałszywego głosu roszczenia ubezpieczeniowe. Głos naśladował ubezpieczającego, przekazując przekonujące szczegóły przedstawicielowi centrum kontaktowego.
Wpływ: Firma ubezpieczeniowa rozpatrzyła kilka fałszywych roszczeń, w wyniku czego wypłaciła znaczne kwoty, zanim oszustwo zostało wykryte.
4. Exploit związany z obsługą klienta detalicznego:
Incydent: Do podszywania się pod stałego klienta w detalicznym centrum kontaktowym wykorzystano deepfake. Oszust zażądał kilku zwrotów pieniędzy i kart podarunkowych o dużej wartości i otrzymał je.
Wpływ: Firma zajmująca się sprzedażą detaliczną poniosła straty finansowe w wyniku fałszywych zwrotów środków i musiała udoskonalić swoje procesy weryfikacji.
5. Naruszenie dostawcy opieki zdrowotnej:
Incydent: Do podszywania się pod lekarza dzwoniącego do centrum kontaktowego użyto fałszywego głosu służby zdrowia. Oszust zażądał dostępu do dokumentacji pacjenta, twierdząc, że jest to nagły przypadek.
Wpływ: Centrum kontaktowe zapewniło dostęp do wrażliwych informacji o pacjencie, co doprowadziło do poważnego naruszenia prywatności i potencjalnych konsekwencji prawnych.
Incydenty te uwydatniają coraz większe wyrafinowanie oszustw typu deepfake i krytyczną potrzebę stosowania zaawansowanych środków bezpieczeństwa w centrach kontaktowych.
Podsumowując, wzrost liczby deepfakes i generatywna sztuczna inteligencja dodał nowy wymiar do krajobrazu bezpieczeństwa głosowego. Ponieważ oszuści nadal wykorzystują te technologie, firmy muszą zachować czujność i proaktywność. Spostrzeżenia i rozwiązania przedstawione w Pindrop's Raport Voice Intelligence and Security Report z 2024 r. przedstawia plan działania, który pomoże nam poruszać się po tym skomplikowanym i zmieniającym się terenie.

