Sztuczna inteligencja rewolucjonizuje wiele aspektów życia, ale niestety staje się także narzędziem przestępców. Jednym z rosnących zagrożeń są oszustwa głosowe, w których AI naśladuje głos bliskiej osoby. Proceder ten jest możliwy dzięki aplikacjom, które za pomocą zaledwie kilkusekundowego nagrania potrafią dokładnie odwzorować intonację, akcent i emocje. Oszuści często dzwonią, podszywając się pod członka rodziny, prosząc o pomoc finansową, np. za pośrednictwem kodu BLIK lub przelewu.
Jak działają takie oszustwa?
Przestępcy wykorzystują modele AI, które generują realistyczny głos na podstawie próbek audio. Często ofiary są zaskakiwane realistycznym brzmieniem głosu osoby bliskiej, przez co tracą czujność. W jednym z przypadków z USA wyłudzenia przy użyciu AI osiągnęły sumę ponad 11 miliardów dolarów w 2023 roku.
Jak się chronić?
Eksperci radzą, by stosować środki ostrożności:
- Weryfikuj informacje: oddzwaniaj na znany numer zamiast kontynuować rozmowę z dzwoniącym.
- Ustal hasła bezpieczeństwa: między członkami rodziny, które mogą być używane w kryzysowych sytuacjach.
- Zwracaj uwagę na szczegóły: głos AI bywa pozbawiony naturalnych emocji lub miewa trudności z nietypowymi frazami.
- Zachowanie ostrożności i znajomość tych technik to kluczowe elementy obrony przed nową falą oszustw. Sztuczna inteligencja może być użyteczna, ale musimy być świadomi potencjalnych zagrożeń, jakie niesie jej rozwój.
Brak komentarza, Twój może być pierwszy.
Dodaj komentarz