FBI varuje před podvody s umělou inteligencí
Federální úřad pro vyšetřování (FBI) vydal varování před narůstajícím počtem podvodných aktivit, které využívají technologie generativní umělé inteligence, zejména deepfakes. Toto varování připomíná rostoucí sofistikovanost a dostupnost těchto technologií a naléhavou potřebu ostražitosti při ochraně před potenciálními podvody. Podívejme se podrobněji na to, co jsou deepfakes, jak je zločinci používají a jaké kroky můžete podniknout k ochraně svých osobních údajů.
Deepfakes označují obsah generovaný umělou inteligencí, který může přesvědčivě napodobovat skutečné osoby, včetně jejich hlasů, obrázků a videí. Zločinci tyto techniky využívají k imitaci jednotlivců, často v krizových situacích. Například mohou generovat zvukové klipy, které znějí jako hlas blízké osoby žádající o naléhavou finanční pomoc, nebo dokonce vytvářet videokonference v reálném čase, které se zdají zahrnovat vedoucí pracovníky společnosti nebo pracovníky donucovacích orgánů.
FBI identifikovala 17 běžných technik používaných zločinci k vytváření těchto klamavých materiálů:
- Klonování hlasu: Generování zvukových klipů, které napodobují hlas člena rodiny nebo jiných důvěryhodných osob, aby manipulovali s oběťmi.
- Videokonference v reálném čase: Vytváření falešných video interakcí, které se zdají zahrnovat autority, jako je policie nebo vedoucí pracovníci firem.
- Sociální inženýrství: Využívání emocionálních apelů k manipulaci s oběťmi, aby odhalily osobní informace nebo převedly finanční prostředky.
- Textem generovaným AI: Vytváření realistických písemných zpráv pro phishingové útoky a schémata sociálního inženýrství, díky kterým vypadají věrohodně.
- Obrázky generované AI: Používání syntetických obrázků k vytváření věrohodných profilů na sociálních médiích nebo podvodných webových stránkách.
- Videa generovaná AI: Produkce přesvědčivých videí, která lze použít v podvodech, včetně investičních podvodů nebo podvodů s imitací osob.
- Vytváření falešných profilů na sociálních médiích: Zřizování podvodných účtů, které používají obsah generovaný AI k oklamání ostatních.
- Phishingové e-maily: Posílání e-mailů, které se zdají legitimní, ale jsou vytvořeny pomocí AI, aby oklamali příjemce a získali citlivé informace.
- Napodobování veřejných osobností: Používání technologie deepfake k vytváření videí nebo zvukových klipů, které napodobují známé osobnosti pro podvody.
- Falešné identifikační doklady: Generování podvodných dokladů totožnosti, jako jsou řidičské průkazy nebo pověření, pro podvody s identitou a napodobování.
- Investiční podvodná schémata: Nasazení materiálů generovaných AI k přesvědčení obětí, aby investovaly do neexistujících příležitostí.
- Výkupné: Napodobování členů rodiny v nouzi, aby získali výkupné od obětí.
- Manipulace s rozpoznávacími systémy hlasu: Použití klonových hlasů k obejití bezpečnostních opatření, která se spoléhají na ověřování hlasu.
- Falešné výzvy k charitě: Vytváření deepfake obsahu, který vybírá dary pod falešnou záminkou, často během krizí.
- Kompromitace firemních e-mailů: Vytváření e-mailů, které se zdají pocházet od vedoucích pracovníků nebo důvěryhodných kontaktů, k autorizaci podvodných transakcí.
- Vytváření dezinformačních kampaní: Využívání deepfake videí jako součásti širších dezinformačních snah, zejména kolem významných událostí, jako jsou volby.
- Využívání krizových situací: Generování naléhavých žádostí o pomoc nebo peníze během mimořádných událostí, využívající emocionální manipulaci.
Tyto taktiky zdůrazňují rostoucí sofistikovanost podvodných schémat usnadňovaných generativní AI a důležitost ostražitosti při ochraně osobních údajů.
Pro více informací o ochraně před deepfake podvody navštivte stránky FBI a další bezpečnostní zdroje.
Související články
Varovné signály: Vaše pošta byla podvodně přesměrována
Jedno kliknutí stálo otce 4 miliony dolarů v bitcoinech kvůli vishingovému podvodu
Cyberzločinci využijí Super Bowl k podvodům
Sdílet na sociálních sítích:
Komentáře