Check Point pone el foco en cómo la IA generativa está transformando la manera de producir ataques de ingeniería social y phishing. Lo que antes requería tiempo, investigación y esfuerzo manual por parte de los ciberdelincuentes ahora puede generarse en cuestión de segundos.
El resultado se traduce en mensajes hiperpersonalizados, voces de directivos clonadas e incluso suplantaciones en vídeo que se asemejan mucho a la realidad. Los deepfakes representan un riesgo real para las empresas, habiéndose registrado ya incidentes que han provocado pérdidas millonarias y graves interrupciones operativas.
Desafíos en la Identificación de Identidad
En las plataformas de colaboración que utilizan las empresas a diario, verificar la identidad de quien está al otro lado es cada vez más complicado. La clonación de voz y rostro en tiempo real está eliminando muchas de las señales de alerta tradicionales, lo que dificulta detectar una estafa a simple vista.

En este nuevo contexto, las compañías necesitan reforzar sus defensas y actualizar sus programas de concienciación para adaptarse a un panorama de amenazas cada vez más rápido, multicanal y sofisticado. Check Point Software ha ampliado recientemente su porfolio de Infinity Global Services para ayudar a los equipos de ciberseguridad a reforzar estos entornos.
El Factor Humano y Casos Reales de Fraude
Aunque la tecnología evolucione, los ciberdelincuentes siguen aprovechando el mismo punto débil de siempre: las personas. El error humano continúa siendo la vulnerabilidad más explotada en la cadena de seguridad de las organizaciones.

Uno de los casos más llamativos ocurrió en Hong Kong, donde engañaron a un empleado mediante una videollamada grupal con ejecutivos generados por deepfake. La conversación parecía tan real que el trabajador autorizó una transferencia de entre 25 y 26 millones de dólares.
Evolución del Phishing hacia el Entorno Corporativo
En contraste, un intento de fraude similar contra Ferrari terminó frustrado cuando un empleado decidió hacer una simple pregunta de verificación. Ese pequeño gesto fue suficiente para desenmascarar la estafa y evitar el fraude en una llamada de Microsoft Teams.
Asimismo, las técnicas de deepfake utilizadas antes en estafas románticas están empezando a trasladarse al entorno corporativo. A medida que la IA mejora la calidad del lenguaje, señales tradicionales como errores ortográficos desaparecen, por lo que los empleados deben aprender a verificar la intención de quien realiza una solicitud.
