Cómo Evitar Estafas de Voz con IA
Destacado en
En una era donde la inteligencia artificial (IA) se está integrando en la vida diaria, la innovación de la clonación de voz con IA ha abierto nuevas vías...
En una era donde la inteligencia artificial (IA) se está integrando en la vida diaria, la innovación de la clonación de voz con IA ha abierto nuevas vías para los estafadores. Las estafas de clonación de voz con IA implican a ciberdelincuentes que utilizan tecnología de IA generativa para imitar la voz de un ser querido o un miembro de la familia, creando un sentido de urgencia para engañar a las personas y hacer que entreguen su dinero o información sensible.
Cada día, miles de estadounidenses, si no más, reciben llamadas de estafadores que utilizan tecnología de voz con IA. Aquí tienes una guía sobre cómo mantenerse seguro frente a estos cada vez más sofisticados robos de identidad y otras estafas.
Entender la Tecnología
La clonación de voz con IA utiliza algoritmos para generar una réplica digital de la voz de una persona a partir de un breve clip de audio. Esta tecnología, aunque revolucionaria, también puede ser mal utilizada para crear estafas convincentes. Estos mensajes de audio deepfake pueden hacer que parezca que un miembro de la familia está en problemas—quizás afirmando que han tenido un accidente de coche o están en problemas legales—y necesitan urgentemente dinero, a menudo en forma de criptomonedas, detalles de tarjetas de crédito o tarjetas de regalo.
Reconocer las Señales de Alerta
La Comisión Federal de Comercio (FTC) destaca varias señales de alerta asociadas con la clonación de voz con IA y otras estafas:
- Solicitudes urgentes de dinero: Desconfía si el llamante insiste en una acción inmediata.
- Solicitudes de secreto: Los estafadores a menudo piden a las víctimas que no cuenten a otros miembros de la familia sobre la situación.
- Métodos de pago inusuales: Solicitudes de criptomonedas, tarjetas de regalo o transferencias bancarias son casi siempre una señal de fraude.
Las 7 estafas de voz con IA más comunes
- Estafa del Abuelo: Los estafadores utilizan clonación de voz generada por IA para imitar la voz de un abuelo, llamando a sus nietos con solicitudes urgentes de dinero debido a una falsa emergencia como un accidente de coche, a menudo pidiendo que los fondos se envíen a través de tarjetas de regalo o criptomonedas.
- Llamadas Falsas de Autoridad: Los ciberdelincuentes clonan las voces de agentes de la ley o funcionarios del gobierno para intimidar a las víctimas y hacer que entreguen información sensible o dinero, aprovechando la autoridad de agencias como la FTC para crear un sentido de urgencia.
- Estafas de Soporte Técnico: Usando tecnología de IA, los estafadores se hacen pasar por soporte técnico de empresas reputadas como Apple o Microsoft, afirmando que tu computadora está en riesgo por malware. Manipulan a las víctimas para que otorguen acceso remoto o paguen por protección cibernética innecesaria.
- Estafas de Romance en Redes Sociales: La clonación de voz con IA se emplea para profundizar relaciones falsas cultivadas en plataformas como Facebook o LinkedIn. Los estafadores crean escenarios emocionalmente cargados, pidiendo dinero para manejar crisis falsas.
- Mensajes de Voz de Phishing: Esta estafa implica dejar mensajes de voz generados por IA que suenan como si fueran de una fuente confiable, como un banco o Amazon, instándote a devolver la llamada a un número proporcionado que lleva a un estafador listo para extraer detalles de tarjetas de crédito o información personal.
- Fraude de Ejecutivos de Negocios: Se utiliza IA para imitar la voz de un CEO o ejecutivo de alto nivel en clips de audio enviados por correo electrónico o llamadas telefónicas a empleados, solicitando transferencias bancarias urgentes o divulgación de datos sensibles.
- Fraude de Seguros: Los estafadores se hacen pasar por agentes de seguros después de desastres, usando voces clonadas de agentes reales obtenidas de redes sociales o sitios web de empresas. Explotan el estado de angustia de las víctimas, presionando para pagos inmediatos de reclamaciones o información personal a cambio de ayuda.
En todos estos casos, la FTC aconseja verificar identidades a través de comunicación directa en líneas conocidas y seguras, implementar autenticación de dos factores, y mantenerse cauteloso ante números desconocidos y solicitudes no solicitadas, asegurando una protección robusta contra el cambiante panorama de las estafas de voz con IA.
Verificar Llamadas Sospechosas
Si recibes una llamada telefónica inesperada o un mensaje de voz que te alarma, toma los siguientes pasos para protegerte:
- Cuelga y vuelve a llamar: Usa un número de teléfono conocido para contactar al familiar o amigo que supuestamente te llamó.
- Usa una palabra clave: Establece una palabra de seguridad familiar para emergencias para verificar rápidamente si la llamada es legítima.
- Revisa el identificador de llamadas: Sé escéptico ante llamadas telefónicas de números desconocidos o números que imitan contactos conocidos, una táctica conocida como suplantación de identificador de llamadas.
Mantente Informado y Seguro
Mejorar tus medidas de ciberseguridad también puede ayudar a protegerte contra estafas:
- Infórmate y educa a otros: Comparte información sobre estafas con amigos y familiares, especialmente con aquellos que puedan ser más vulnerables, como los ancianos que pueden ser blanco de estafas de abuelos.
- Asegura tu presencia digital: Usa la autenticación de dos factores en todas las cuentas importantes, desde redes sociales hasta servicios financieros.
- Mantente actualizado: Empresas como McAfee y grandes plataformas tecnológicas como Apple y Amazon actualizan constantemente sus características de seguridad para protegerse contra nuevas amenazas.
Lo que dicen los expertos
Los expertos en ciberseguridad instan a la vigilancia. Según los últimos informes de McAfee, las llamadas fraudulentas y los intentos de phishing están en aumento cada año. LinkedIn y otras plataformas de redes sociales también son terrenos comunes para que los ciberdelincuentes recopilen datos personales utilizados en estafas.
Tomando acción
Si sospechas que has encontrado una estafa de clonación de voz por IA:
- Repórtalo a las autoridades: Notifica a la FTC o a las fuerzas del orden locales.
- Informa a tu red: Alerta a tu círculo social para prevenir la propagación de la estafa.
A medida que la tecnología de IA evoluciona, también lo hacen las tácticas de los ciberdelincuentes. Manteniéndote informado sobre las últimas herramientas de IA y amenazas de ciberseguridad, y permaneciendo vigilante en tus comunicaciones diarias, puedes protegerte a ti y a tus seres queridos de caer en estas nefastas trampas.
Protección contra la clonación de voz por IA y estafas
Para protegerse contra la clonación de voz por IA, establece métodos de verificación como una palabra clave única con familiares y amigos, y siempre verifica llamadas sospechosas colgando y llamando de nuevo usando un número conocido.
Protégete de las amenazas de IA utilizando prácticas sólidas de ciberseguridad, como habilitar la autenticación de dos factores en tus cuentas, mantener tu software actualizado e informarte sobre las últimas amenazas impulsadas por IA.
Detectar la clonación de voz puede ser un desafío, pero las señales incluyen distorsiones leves o tonos inusuales en la voz, e inconsistencias en los patrones de habla habituales de la persona o ruidos de fondo; siempre verifica a través de un método de comunicación alternativo si es sospechoso.
Cliff Weitzman
Cliff Weitzman es un defensor de la dislexia y el CEO y fundador de Speechify, la aplicación de texto a voz número uno en el mundo, con más de 100,000 reseñas de 5 estrellas y ocupando el primer lugar en la categoría de Noticias y Revistas de la App Store. En 2017, Weitzman fue incluido en la lista de Forbes 30 menores de 30 por su trabajo haciendo que internet sea más accesible para personas con discapacidades de aprendizaje. Cliff Weitzman ha sido destacado en EdSurge, Inc., PC Mag, Entrepreneur, Mashable, entre otros medios líderes.