
La Inteligencia Artificial se está consolidando como un componente clave en las estrategias y soluciones tecnológicas de ciberseguridad para el año 2025. Las redes actuales generan volúmenes masivos de datos que resultarían complejos de gestionar sin el apoyo de técnicas de IA. Estos sistemas de análisis basados en IA se ajustan continuamente a los cambios para detectar amenazas.
Su capacidad de aprendizaje y optimización constante les permite evolucionar y mejorar su rendimiento constantemente. Además, los ciberdelincuentes también están aprovechando estas ventajas para ejecutar ataques más sofisticados y frecuentes. ¿Le gustaría conocer las últimas innovaciones en IA para la detección de amenazas? ¿Qué mejoras y cambios trae esta incorporación? ¿En qué aspectos mejora y complementa a los equipos humanos?
Tal y como apunta Gartner al respecto, “hasta 2026, más del 60% de las capacidades de detección, investigación y respuesta de amenazas (TDIR) aprovecharán los datos de gestión de exposición para validar y priorizar las amenazas detectadas, en comparación con menos del 5% en la actualidad”.
Para nosotros la AI nos ayuda mucho a analizar todos los sistemas, analizar y responder a las amenazas de manera autónoma, para detectar todo lo que pasa por la red.
Carmelo Pesce, Channel Manager de ReeVo
Carmelo Pesce, Channel Manager de ReeVo, centró su intervención en cómo utilizan la IA para analizar sistemas y responder a las amenazas de manera autónoma. Explicó que “para nosotros la AI nos ayuda mucho a analizar todos los sistemas, analizar y responder a las amenazas de manera autónoma, para detectar todo lo que pasa por la red, analizar lo que es el comportamiento del usuario final, y hacer la integración integrada”.
Destacó la importancia de la tecnología CTEM (Continuous Threat Exposure Management) para analizar comportamientos anómalos antes de que se conviertan en amenazas. “Esto nos ayuda mucho a analizar y a ver todos los comportamientos anómalos, y antes de que se conviertan en amenazas”, afirmó. Además, explicó cómo utilizan la planificación detallada y el assessment para identificar rutas de ataque y mejorar la seguridad de las organizaciones.
Utilizamos la información de amenazas sobre la corretada de nuestro threat intelligence en la gestión de más de 1.400.000 millones de correos electrónicos agregando esa inteligencia para mejorar nuestros modelos de inteligencia artificial.
Carlos Vieira, Country Manager Iberia, Italia y Latam de Hornetsecurity
Carlos Vieira, Country Manager Iberia, Italia y Latam de Hornetsecurity, abordó cómo utilizan la inteligencia artificial y machine learning en la protección contra phishing y correo electrónico. Señaló que “utilizamos la información de amenazas de nuestro threat intelligence en la gestión de más de 1.400.000 millones de correos electrónicos agregando esas amenazas para mejorar nuestros modelos de inteligencia artificial que llevamos más de 10 años trabajando en los mismos”.
Vieira destacó que los ataques habilitados por IA están ya presentes, mencionando ejemplos como Chat GPT que, a pesar de tener medidas de seguridad, puede ser utilizado para crear correos fraudulentos, especialmente con métodos como “do anything now” (DAN) que pasan por encima de las medidas de seguridad de las inteligencias artificiales.” Sin embargo, aclaró que “hay razones para preocuparse pero tenemos que pensar que al final los ataques si se han funcionado o ya no son perfectos, todos ellos son iniciados por un humano”.
Hay que saber primero por donde nos van a atacar,, intentar evitarlo y si nos atacan, pues que no vuelva a pasar, aprender de esos errores. Para eso es importantísimo disponer de múltiples capas de defensa.
Josep Albors, Responsable de investigación y concienciación de ESET España
Josep Albors, Responsable de investigación y concienciación de ESET España, abordó el valor de la inteligencia de amenazas en la era de la inteligencia artificial. Destacó que, contrariamente a lo que se podría pensar, no todas las amenazas creadas con IA son significativamente más avanzadas: “¿Son todas ellas más avanzadas? No necesariamente”. Mostró ejemplos de código malicioso generado posiblemente con IA, pero señaló que no necesariamente representa amenazas más sofisticadas que las tradicionales.
Albors mencionó varios tipos de ataques que utilizan la IA como gancho, incluyendo falsos instaladores de herramientas populares como Midjourney y extensiones de navegador maliciosas que se presentan como soluciones de IA. También advirtió sobre el fraude del CEO evolucionando hacia videoconferencias donde se suplanta la identidad utilizando tecnología de deepfake: “El fraude del CEO se hace mediante videoconferencias en las que se suplanta a la persona que es la que te va a ordenar que hagas, por ejemplo, una transferencia de fondos”.
También mencionó un preocupante caso de robo de datos biométricos: “Aprovechan tu cara para darse de alta en bancos legítimos poniendo tu cara, la imagen de tu cara encima de la suya con inteligencia artificial”. Para protegerse, Albors recomendó un enfoque basado en cuatro pilares: predicción, prevención, detección y respuesta.
En vez de recoger todos los datos del atacante, lo que va a hacer es recoger los datos de cada cliente independientemente, de sus comportamientos habituales. Yo, cuando lanzo una IA en nuestros clientes, esa IA no tiene ninguna comprensión a priori de qué es bueno, qué es malo.
Carlos González Cybersecurity Product Marketing Manager de Darktrace
Carlos González de Darktrace, en sustitución de José Badia, explicó cómo utilizan la IA no solo para detectar ataques, sino para entender mejor la normalidad de cada organización. “El número de ataques nuevos de día cero o ya más como quieras está incrementando a una manera espectacular que necesita que nosotros no estemos detrás del atacante”, destacó. Explicó que la diferencia fundamental en su enfoque es que analizan datos de la organización, no de los atacantes: “En vez de recoger todos los datos del atacante, lo que va a hacer es recoger los datos de cada cliente independientemente”.
Esta metodología permite entender el comportamiento normal de cada usuario y organización, lo que facilita detectar anomalías sin tener que estar constantemente entrenando modelos basados en ataques previos. “A nivel individual, ¿quién es Pepe de marketing…? ¿Quién es el grupo? ¿Cómo es el grupo de marketing? ¿Cómo se comunican entre ellos? “, puso como ejemplo.