regulacion
regulacion·11 de mayo de 2026·3 min·Decrypt

Hackers utilizaron IA para crear un exploit de día cero que elude la autenticación de dos factores: Google

Hackers utilizaron IA para crear un exploit de día cero que elude la autenticación de dos factores: Google
Foto: Decrypt

El equipo de amenazas de Google confirmó el lunes que ciberdelincuentes emplearon un modelo de inteligencia artificial para descubrir y explotar una vulnerabilidad de software previamente desconocida, logrando así eludir sistemas de autenticación de dos factores (2FA). Este incidente marca un hito preocupante en la evolución del cibercrimen, ya que combina la capacidad de la IA para identificar fallos de seguridad con técnicas de ataque automatizadas que tradicionalmente requerían intervención humana especializada.

Según el informe de Google, el exploit de día cero fue generado por un modelo de IA entrenado específicamente para analizar código fuente y detectar patrones de vulnerabilidad. Una vez identificada la falla, los atacantes la integraron en un malware capaz de interceptar y manipular las solicitudes de autenticación en tiempo real. Esto permitió que, incluso con 2FA activada, los criminales pudieran acceder a cuentas protegidas sin levantar sospechas inmediatas. La técnica representa un salto cualitativo respecto a métodos anteriores como el phishing o el SIM swapping.

El hallazgo subraya una tendencia creciente en el ecosistema de seguridad digital: la democratización de herramientas avanzadas de hacking mediante inteligencia artificial. Mientras que antes desarrollar un exploit de día cero requería meses de trabajo de equipos de élite, ahora los modelos de IA pueden reducir ese proceso a días o incluso horas. Para el sector de las criptomonedas, donde la seguridad de las wallets y los exchanges depende en gran medida de la autenticación multifactor, esta noticia es particularmente alarmante. Muchas plataformas DeFi y exchanges centralizados recomiendan el uso de 2FA como capa crítica de protección.

Google no ha revelado detalles específicos sobre el modelo de IA utilizado ni la naturaleza exacta de la vulnerabilidad, pero confirmó que el exploit ya ha sido parcheado en sus sistemas. La compañía instó a los usuarios a activar medidas adicionales como claves de seguridad físicas (hardware keys) o autenticación biométrica, que son más resistentes a este tipo de ataques. Además, recomendó a los desarrolladores implementar sistemas de detección de anomalías basados en machine learning para identificar patrones de comportamiento sospechosos antes de que se complete un ataque.

Este incidente se suma a una serie de advertencias recientes sobre el uso malicioso de IA en ciberseguridad. En los últimos meses, se han documentado casos de deepfakes utilizados para eludir verificaciones de identidad en exchanges, así como chatbots entrenados para realizar ataques de ingeniería social a gran escala. La comunidad blockchain, que valora la descentralización y la inmutabilidad, enfrenta ahora el desafío de adaptar sus protocolos de seguridad a un entorno donde los atacantes pueden automatizar la búsqueda de vulnerabilidades.

Para los inversores y usuarios de criptomonedas, la lección es clara: la autenticación de dos factores tradicional, basada en SMS o aplicaciones generadoras de códigos, ya no es suficiente. Expertos en seguridad recomiendan migrar hacia soluciones como hardware wallets con soporte para FIDO2, o sistemas de autenticación multifactor que incluyan verificación biométrica y análisis de comportamiento. Algunos proyectos DeFi ya están explorando la integración de pruebas de conocimiento cero (zero-knowledge proofs) como capa adicional de protección contra exploits automatizados.

Google continuará monitoreando la evolución de esta amenaza y prometió compartir más detalles técnicos en las próximas semanas para ayudar a la industria a desarrollar contramedidas. Mientras tanto, el mensaje para el ecosistema cripto es inequívoco: la carrera armamentista entre defensores y atacantes ha entrado en una nueva fase, donde la inteligencia artificial no solo protege, sino que también puede ser utilizada para vulnerar los sistemas más confiables. La adaptación proactiva será clave para mantener la seguridad en un panorama digital cada vez más complejo.

Compartir

Relacionados