Cuidado con la estafa del "sí": Cómo la IA potencia el fraude telefónico
La inteligencia artificial permite clonar voces con solo tres segundos de audio, convirtiendo una simple llamada en una herramienta para fraudes como la "estafa del sí"
CDMX.- En un mundo donde la inteligencia artificial clona voces con solo tres segundos de audio, una simple llamada puede convertirse en una trampa letal. La "estafa del sí", un fraude telefónico que no solo roba datos, sino que secuestra tu voz para autorizar transacciones ilegales o suplantarte. Pero, ¿es esto un alarmismo o una amenaza real? Analicemos los hechos, respaldados por reportes oficiales, para entender por qué esta modalidad, potenciada por IA, está en auge y cómo cuestionar su efectividad.
El mecanismo es astuto y aprovecha la ingeniería social: los delincuentes llaman desde números desconocidos, fingiendo ser de bancos o instituciones, y formulan preguntas como "¿Me escucha bien?" para grabar tu "sí", "hola" o "aló". Estas palabras, inocentes en apariencia, se editan para simular consentimientos en fraudes, como contratar servicios o transferir dinero. Según el Instituto Nacional de Ciberseguridad de España (INCIBE), esta táctica de vishing ha existido años, pero la IA la eleva: herramientas como Voice Engine de OpenAI clonan tonos y entonaciones con muestras mínimas de redes sociales. En México, la Secretaría de Seguridad y Protección Ciudadana (SSPC) emitió una alerta el 13 de marzo de 2025 sobre clonaciones vocales, mientras la CONDUSEF y Guardia Nacional insisten en que ninguna entidad oficial pide datos por teléfono.
Críticamente, esta estafa explota nuestra confianza instintiva en las voces familiares, pero ¿por qué funciona tanto? Una encuesta de McAfee revela que el 25% de encuestados ha enfrentado intentos similares, con un 77% de víctimas enviando dinero por pánico inducido. Casos reales lo confirman: en EE.UU., un hombre perdió 25 mil dólares al creer que su hijo clonado pedía ayuda tras un accidente; en Reino Unido, fraudes por WhatsApp sumaron 1.5 millones de libras en meses. El FBI advierte que la IA hace estos engaños "devastadores", cuestionando si la prevención individual basta o urge regulación en apps de clonación. En contexto, estos delitos crecieron exponencialmente post-pandemia, con IA accesible democratizando el cibercrimen: ya no se necesita expertise, solo un audio de TikTok o Instagram.
Para no caer, evita esas tres palabras; responde con "¿quién habla?" o cuelga. Establece "contraseñas familiares" secretas para emergencias, verifica llamando directamente y monitorea cuentas. Reporta a autoridades. En última instancia, esta estafa nos recuerda: la tecnología avanza, pero el escepticismo es nuestra mejor defensa. ¿Estás listo para colgar?