Jak unikać oszustw głosowych AI
Polecane w
W erze, w której sztuczna inteligencja (AI) staje się integralną częścią codziennego życia, innowacja w postaci klonowania głosu AI otworzyła nowe możliwości...
W erze, w której sztuczna inteligencja (AI) staje się integralną częścią codziennego życia, innowacja w postaci klonowania głosu AI otworzyła nowe możliwości dla oszustów. Oszustwa głosowe AI polegają na tym, że cyberprzestępcy wykorzystują generatywną technologię AI do naśladowania głosu bliskiej osoby lub członka rodziny, tworząc poczucie pilności, aby oszukać ludzi i skłonić ich do oddania pieniędzy lub wrażliwych informacji.
Każdego dnia tysiące Amerykanów, jeśli nie więcej, otrzymuje telefony od oszustów wykorzystujących technologię głosową AI. Oto przewodnik, jak chronić się przed tymi coraz bardziej zaawansowanymi kradzieżami tożsamości i innymi oszustwami.
Zrozum technologię
Klonowanie głosu AI wykorzystuje algorytmy do generowania cyfrowej repliki głosu osoby z zaledwie krótkiego nagrania audio. Ta technologia, choć rewolucyjna, może być również nadużywana do tworzenia przekonujących oszustw. Te fałszywe wiadomości audio mogą sprawiać wrażenie, że członek rodziny jest w tarapatach—na przykład twierdząc, że miał wypadek samochodowy lub ma problemy prawne—i pilnie potrzebuje pieniędzy, często w formie kryptowaluty, danych karty kredytowej lub kart podarunkowych.
Rozpoznaj czerwone flagi
Federalna Komisja Handlu (FTC) wskazuje na kilka czerwonych flag związanych z klonowaniem głosu AI i innymi oszustwami:
- Pilne prośby o pieniądze: Bądź ostrożny, jeśli dzwoniący nalega na natychmiastowe działanie.
- Prośby o zachowanie tajemnicy: Oszuści często proszą ofiary, aby nie mówiły innym członkom rodziny o sytuacji.
- Nietypowe metody płatności: Prośby o kryptowaluty, karty podarunkowe lub przelewy bankowe są niemal zawsze oznaką oszustwa.
7 najczęstszych oszustw głosowych AI
- Oszustwo na dziadka: Oszuści używają klonowania głosu AI, aby naśladować głos dziadka, dzwoniąc do wnuków z pilnymi prośbami o pieniądze z powodu fałszywego wypadku, często prosząc o przesłanie środków za pomocą kart podarunkowych lub kryptowaluty.
- Fałszywe telefony od autorytetów: Cyberprzestępcy klonują głosy funkcjonariuszy organów ścigania lub urzędników państwowych, aby zastraszyć ofiary i skłonić je do przekazania wrażliwych informacji lub pieniędzy, wykorzystując autorytet agencji takich jak FTC, aby stworzyć poczucie pilności.
- Oszustwa wsparcia technicznego: Wykorzystując technologię AI, oszuści podszywają się pod wsparcie techniczne renomowanych firm, takich jak Apple czy Microsoft, twierdząc, że twój komputer jest zagrożony przez złośliwe oprogramowanie. Manipulują ofiarami, aby uzyskać zdalny dostęp lub zapłacić za niepotrzebną ochronę cybernetyczną.
- Oszustwa romansowe w mediach społecznościowych: Klonowanie głosu AI jest wykorzystywane do pogłębiania fałszywych relacji na platformach takich jak Facebook czy LinkedIn. Oszuści tworzą emocjonalnie naładowane scenariusze, prosząc o pieniądze na fałszywe kryzysy.
- Fałszywe wiadomości głosowe: To oszustwo polega na pozostawianiu wiadomości głosowych generowanych przez AI, które brzmią jakby pochodziły od zaufanego źródła, takiego jak bank czy Amazon, zachęcając do oddzwonienia na podany numer, który prowadzi do oszusta gotowego do wyłudzenia danych karty kredytowej lub informacji osobistych.
- Oszustwa na dyrektora firmy: AI jest używane do naśladowania głosu CEO lub wysokiego rangą dyrektora w klipach audio wysyłanych e-mailem lub telefonicznie do pracowników, prosząc o pilne przelewy bankowe lub ujawnienie wrażliwych danych.
- Oszustwa ubezpieczeniowe: Oszuści podszywają się pod agentów ubezpieczeniowych po katastrofach, używając sklonowanych głosów prawdziwych agentów pozyskanych z mediów społecznościowych lub stron firmowych. Wykorzystują stan niepokoju ofiar, naciskając na natychmiastowe płatności roszczeń lub przekazanie informacji osobistych w zamian za pomoc.
We wszystkich tych przypadkach FTC zaleca weryfikację tożsamości poprzez bezpośrednią komunikację na znanych, bezpiecznych liniach, wdrożenie uwierzytelniania dwuskładnikowego oraz zachowanie ostrożności wobec nieznanych numerów i niechcianych próśb, zapewniając solidną ochronę przed rozwijającym się krajobrazem oszustw głosowych AI.
Weryfikuj podejrzane połączenia
Jeśli otrzymasz niespodziewany telefon lub wiadomość głosową, która budzi niepokój, wykonaj następujące kroki, aby się chronić:
- Rozłącz się i oddzwoń: Użyj znanego numeru telefonu, aby skontaktować się z członkiem rodziny lub przyjacielem, który rzekomo do ciebie dzwonił.
- Użyj hasła: Ustal rodzinne hasło bezpieczeństwa na wypadek sytuacji awaryjnych, aby szybko zweryfikować, czy połączenie jest autentyczne.
- Sprawdź identyfikator dzwoniącego: Bądź sceptyczny wobec połączeń z nieznanych numerów lub numerów, które naśladują znane kontakty, co jest taktyką znaną jako fałszowanie identyfikatora dzwoniącego.
Bądź na bieżąco i zabezpieczony
Wzmocnienie środków cyberbezpieczeństwa może również pomóc w ochronie przed oszustwami:
- Edukacja siebie i innych: Dziel się informacjami o oszustwach z przyjaciółmi i rodziną, zwłaszcza z osobami bardziej narażonymi, jak seniorzy, którzy mogą być celem oszustw na wnuczka.
- Zabezpiecz swoją obecność cyfrową: Używaj uwierzytelniania dwuskładnikowego na wszystkich ważnych kontach, od mediów społecznościowych po usługi finansowe.
- Bądź na bieżąco: Firmy takie jak McAfee oraz duże platformy technologiczne jak Apple i Amazon regularnie aktualizują swoje funkcje bezpieczeństwa, aby chronić przed nowymi zagrożeniami.
Co mówią eksperci
Eksperci ds. cyberbezpieczeństwa apelują o czujność. Według najnowszych danych od McAfee, liczba oszustw telefonicznych i prób phishingu rośnie z roku na rok. LinkedIn i inne platformy społecznościowe są również częstym miejscem, gdzie cyberprzestępcy zbierają dane osobowe wykorzystywane w oszustwach.
Podejmowanie działań
Jeśli podejrzewasz, że natknąłeś się na oszustwo z użyciem klonowania głosu AI:
- Zgłoś to władzom: Powiadom FTC lub lokalne organy ścigania.
- Poinformuj swoją sieć: Ostrzeż swoje otoczenie, aby zapobiec dalszemu rozprzestrzenianiu się oszustwa.
W miarę jak technologia AI się rozwija, tak samo zmieniają się taktyki cyberprzestępców. Pozostając na bieżąco z najnowszymi narzędziami AI i zagrożeniami cyberbezpieczeństwa oraz zachowując czujność w codziennej komunikacji, możesz chronić siebie i swoich bliskich przed padnięciem ofiarą tych niecnych planów.
Ochrona przed klonowaniem głosu AI i oszustwami
Aby chronić się przed klonowaniem głosu AI, ustal metody weryfikacji, takie jak unikalne hasło z rodziną i przyjaciółmi, i zawsze weryfikuj podejrzane połączenia, rozłączając się i oddzwaniając na znany numer.
Chroń się przed zagrożeniami AI, stosując silne praktyki cyberbezpieczeństwa, takie jak włączanie uwierzytelniania dwuskładnikowego na swoich kontach, aktualizowanie oprogramowania i edukowanie się na temat najnowszych zagrożeń związanych z AI.
Wykrycie klonowania głosu może być trudne, ale oznaki to drobne zniekształcenia lub nietypowe tony w głosie oraz niespójności w zwykłych wzorcach mowy lub dźwiękach tła; zawsze weryfikuj przez alternatywną metodę komunikacji, jeśli coś wydaje się podejrzane.
Cliff Weitzman
Cliff Weitzman jest rzecznikiem dysleksji oraz CEO i założycielem Speechify, najpopularniejszej aplikacji do zamiany tekstu na mowę na świecie, z ponad 100 000 recenzji 5-gwiazdkowych i pierwszym miejscem w kategorii Wiadomości i Magazyny w App Store. W 2017 roku Weitzman został wyróżniony na liście Forbes 30 under 30 za swoją pracę na rzecz zwiększenia dostępności internetu dla osób z trudnościami w nauce. Cliff Weitzman był prezentowany w EdSurge, Inc., PC Mag, Entrepreneur, Mashable i innych czołowych mediach.