- Domů
- Produktivita
- Jak se vyhnout podvodům s AI hlasem
Jak se vyhnout podvodům s AI hlasem
Uváděno v
V době, kdy se umělá inteligence (AI) stává součástí každodenního života, inovace v oblasti klonování hlasu pomocí AI otevřela nové možnosti...
V době, kdy se umělá inteligence (AI) stává součástí každodenního života, inovace v oblasti klonování hlasu pomocí AI otevřela nové možnosti pro podvodníky. Podvody s klonováním hlasu AI zahrnují kyberzločince, kteří používají generativní AI technologii k napodobení hlasu blízké osoby nebo člena rodiny, čímž vytvářejí pocit naléhavosti, aby lidi oklamali a přiměli je vzdát se peněz nebo citlivých informací.
Každý den tisíce Američanů, ne-li více, dostávají hovory od podvodníků, kteří používají AI hlasovou technologii. Zde je průvodce, jak se chránit před těmito stále sofistikovanějšími krádežemi identity a dalšími podvody.
Pochopte technologii
AI klonování hlasu používá algoritmy k vytvoření digitální repliky hlasu osoby z krátkého zvukového klipu. Tato technologie, ačkoliv revoluční, může být zneužita k vytváření přesvědčivých podvodů. Tyto deepfake zvukové zprávy mohou vyvolat dojem, že člen rodiny je v potížích—například tvrdí, že měl autonehodu nebo má právní problémy—a naléhavě potřebuje peníze, často ve formě kryptoměn, údajů o kreditní kartě nebo dárkových karet.
Rozpoznejte varovné signály
Federální obchodní komise (FTC) upozorňuje na několik varovných signálů spojených s klonováním hlasu AI a dalšími podvody:
- Naléhavé žádosti o peníze: Buďte opatrní, pokud volající trvá na okamžitém jednání.
- Žádosti o utajení: Podvodníci často žádají oběti, aby o situaci neříkaly dalším členům rodiny.
- Neobvyklé způsoby platby: Žádosti o kryptoměny, dárkové karty nebo bankovní převody jsou téměř vždy známkou podvodu.
7 nejčastějších podvodů s AI hlasem
- Podvod na prarodiče: Podvodníci používají AI generované klonování hlasu k napodobení hlasu prarodiče, volají vnoučatům s naléhavými žádostmi o peníze kvůli falešné nouzové situaci, jako je autonehoda, a často žádají o zaslání peněz prostřednictvím dárkových karet nebo kryptoměn.
- Falešné hovory od autorit: Kyberzločinci klonují hlasy policistů nebo vládních úředníků, aby zastrašili oběti a přiměli je k předání citlivých informací nebo peněz, využívajíce autoritu agentur jako FTC k vytvoření pocitu naléhavosti.
- Podvody s technickou podporou: Pomocí AI technologie se podvodníci vydávají za technickou podporu od renomovaných společností jako Apple nebo Microsoft, tvrdí, že váš počítač je ohrožen malwarem. Manipulují oběti, aby poskytly vzdálený přístup nebo zaplatily za zbytečnou kybernetickou ochranu.
- Romantické podvody na sociálních sítích: Klonování hlasu AI je využíváno k prohloubení falešných vztahů pěstovaných na platformách jako Facebook nebo LinkedIn. Podvodníci vytvářejí emocionálně nabité scénáře, žádají o peníze na řešení falešných krizí.
- Phishingové hlasové zprávy: Tento podvod zahrnuje zanechání AI generovaných hlasových zpráv, které znějí jako od důvěryhodného zdroje, například banky nebo Amazonu, naléhající na vás, abyste zavolali zpět na poskytnuté telefonní číslo, které vede k podvodníkovi připravenému získat údaje o kreditní kartě nebo osobní informace.
- Podvody s obchodními manažery: AI je použita k napodobení hlasu generálního ředitele nebo vysokého manažera v audio klipech zasílaných e-mailem nebo telefonicky zaměstnancům, žádajících o naléhavé bankovní převody nebo zveřejnění citlivých dat.
- Podvody s pojištěním: Podvodníci se vydávají za pojišťovací agenty po katastrofách, používají klonované hlasy skutečných agentů získané ze sociálních sítí nebo firemních webů. Využívají stavu nouze obětí, tlačí na okamžité platby pojistných událostí nebo osobní informace výměnou za pomoc.
Ve všech těchto případech FTC doporučuje ověřovat identity prostřednictvím přímé komunikace na známých, bezpečných linkách, zavádět dvoufaktorovou autentizaci a být opatrný vůči neznámým číslům a nevyžádaným žádostem, čímž zajistíte robustní ochranu proti vyvíjejícím se podvodům s AI hlasem.
Ověřte podezřelé hovory
Pokud obdržíte neočekávaný telefonát nebo hlasovou zprávu, která vyvolá poplach, proveďte následující kroky k ochraně:
- Zavěste a zavolejte zpět: Použijte známé telefonní číslo k kontaktování člena rodiny nebo přítele, který vás údajně volal.
- Použijte kódové slovo: Zaveďte rodinné bezpečnostní slovo pro nouzové situace, abyste rychle ověřili, zda je hovor legitimní.
- Zkontrolujte ID volajícího: Buďte skeptičtí k telefonátům z neznámých čísel nebo čísel, která napodobují známé kontakty, což je taktika známá jako falšování ID volajícího.
Zůstaňte informovaní a v bezpečí
Zlepšení vašich opatření kybernetické bezpečnosti může také pomoci chránit před podvody:
- Vzdělávejte sebe a ostatní: Sdílejte informace o podvodech s přáteli a rodinou, zejména s těmi, kteří mohou být zranitelnější, jako jsou senioři, kteří mohou být cílem podvodů na prarodiče.
- Zabezpečte svou digitální přítomnost: Používejte dvoufaktorové ověřování na všech důležitých účtech, od sociálních sítí po finanční služby.
- Buďte informovaní: Společnosti jako McAfee a velké technologické platformy jako Apple a Amazon neustále aktualizují své bezpečnostní funkce, aby se chránily před novými hrozbami.
Co říkají odborníci
Odborníci na kybernetickou bezpečnost varují před nutností být ostražití. Podle nedávných poznatků od McAfee se počet podvodných hovorů a phishingových pokusů každoročně zvyšuje. LinkedIn a další sociální sítě jsou také běžným místem, kde kyberzločinci shromažďují osobní údaje používané v podvodech.
Jak jednat
Pokud máte podezření, že jste se setkali s podvodem s klonováním hlasu AI:
- Nahlaste to úřadům: Informujte FTC nebo místní orgány činné v trestním řízení.
- Informujte svou síť: Upozorněte svůj sociální okruh, aby se zabránilo dalšímu šíření podvodu.
Jak se technologie AI vyvíjí, tak se také mění taktiky kyberzločinců. Tím, že se budete vzdělávat o nejnovějších nástrojích AI a hrozbách kybernetické bezpečnosti a zůstanete ostražití ve svých každodenních komunikacích, můžete chránit sebe a své blízké před těmito nekalými praktikami.
Ochrana proti klonování hlasu AI a podvodům
Chcete-li se chránit před klonováním hlasu AI, zaveďte ověřovací metody, jako je unikátní kódové slovo s rodinou a přáteli, a vždy ověřujte podezřelé hovory tím, že zavěsíte a zavoláte zpět pomocí známého čísla.
Chraňte se před hrozbami AI používáním silných praktik kybernetické bezpečnosti, jako je povolení dvoufaktorového ověřování na vašich účtech, udržování softwaru aktuálního a vzdělávání se o nejnovějších hrozbách poháněných AI.
Rozpoznání klonování hlasu může být náročné, ale příznaky zahrnují drobné zkreslení nebo neobvyklé tóny v hlase a nesrovnalosti v obvyklých vzorcích řeči nebo zvucích na pozadí; vždy ověřujte prostřednictvím alternativní komunikační metody, pokud máte podezření.
Cliff Weitzman
Cliff Weitzman je zastáncem dyslexie a CEO a zakladatelem Speechify, nejpopulárnější aplikace pro převod textu na řeč na světě, s více než 100 000 pětihvězdičkovými recenzemi a první příčkou v App Store v kategorii Zprávy a časopisy. V roce 2017 byl Weitzman zařazen na seznam Forbes 30 pod 30 za svou práci na zpřístupnění internetu lidem s poruchami učení. Cliff Weitzman byl uveden v EdSurge, Inc., PC Mag, Entrepreneur, Mashable a dalších předních médiích.