Zamknij

Nowe oszustwa głosowe z wykorzystaniem sztucznej inteligencji. Jak rozpoznać zagrożenie?

05:33, 03.02.2025
Skomentuj Zdj. ilustracyjne, źródło: unsplash.com Zdj. ilustracyjne, źródło: unsplash.com

Sztuczna inteligencja rewolucjonizuje wiele aspektów życia, ale niestety staje się także narzędziem przestępców. Jednym z rosnących zagrożeń są oszustwa głosowe, w których AI naśladuje głos bliskiej osoby. Proceder ten jest możliwy dzięki aplikacjom, które za pomocą zaledwie kilkusekundowego nagrania potrafią dokładnie odwzorować intonację, akcent i emocje. Oszuści często dzwonią, podszywając się pod członka rodziny, prosząc o pomoc finansową, np. za pośrednictwem kodu BLIK lub przelewu.

Jak działają takie oszustwa?

Przestępcy wykorzystują modele AI, które generują realistyczny głos na podstawie próbek audio. Często ofiary są zaskakiwane realistycznym brzmieniem głosu osoby bliskiej, przez co tracą czujność. W jednym z przypadków z USA wyłudzenia przy użyciu AI osiągnęły sumę ponad 11 miliardów dolarów w 2023 roku.

Jak się chronić?

Eksperci radzą, by stosować środki ostrożności:

  • Weryfikuj informacje: oddzwaniaj na znany numer zamiast kontynuować rozmowę z dzwoniącym.
  • Ustal hasła bezpieczeństwa: między członkami rodziny, które mogą być używane w kryzysowych sytuacjach.
  • Zwracaj uwagę na szczegóły: głos AI bywa pozbawiony naturalnych emocji lub miewa trudności z nietypowymi frazami.
  • Zachowanie ostrożności i znajomość tych technik to kluczowe elementy obrony przed nową falą oszustw. Sztuczna inteligencja może być użyteczna, ale musimy być świadomi potencjalnych zagrożeń, jakie niesie jej rozwój.
(Redakcja)

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarz(0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz

0%