A lo largo del pasado año, y siguiendo la tendencia que se consolida de cara a este 2026, estamos observando cómo se repite un patrón claro: las organizaciones intentan adaptarse al ritmo vertiginoso al que evolucionan las tecnologías, pero, ya sea por limitaciones presupuestarias o por la propia naturaleza de sus infraestructuras, no logran alcanzar un equilibrio que permita proteger todos los activos de forma completa. En este contexto, el enfoque debe centrarse en la gestión del riesgo, ya que resulta inviable definir un alcance que cubra absolutamente todo. Sin embargo, sí es posible establecer una postura de seguridad sólida, una estrategia bien definida y una arquitectura escalable y adaptable a cualquier entorno, priorizando la protección de lo más valioso: la información.
Gracias a tecnologías como el DLP o «Data Loss Prevention», es posible identificar y localizar la información que se utiliza dentro de la organización. Esto incluye tanto los datos que residen en recursos corporativos como aquellos que están en tránsito, permitiendo prevenir la exfiltración de datos y facilitar a los equipos responsables la información necesaria para cumplir con auditorías y requisitos normativos.
En la fase inicial de descubrimiento, es fundamental recordar que, aunque gran parte del volumen de datos se gestiona actualmente en entornos cloud, todavía existe información que, por razones legales, regulatorias o contractuales, permanece en infraestructuras locales: servidores, repositorios compartidos, sistemas NAS, servidores de correo o bases de datos on-premise. Esto redefine el concepto de perímetro de seguridad: no ha desaparecido, sino que ha evolucionado. Ya no basta con una arquitectura tradicional basada en firewalls; es imprescindible adoptar un enfoque que permita descubrir y proteger activos en cualquier ubicación, independientemente de si están gestionados directamente por la organización.
Si no somos capaces de definir estos escenarios con la flexibilidad necesaria, las consecuencias pueden ser graves. Las vulnerabilidades no explotadas de inmediato pueden acabar siendo comercializadas en entornos como la dark web, comprometiendo la reputación de la empresa, la continuidad del negocio y, en última instancia, los puestos de trabajo.
La prevención es clave en este contexto. No se trata de anticiparse a todos los posibles ataques, algo inviable, sino de adelantarse mediante la identificación de comportamientos anómalos en el uso de la información. Es decir, centrarse no solo en la actividad maliciosa, sino en patrones de uso del dato que se desvían de la operativa habitual. Esto permite aplicar controles, generar alertas, notificar a los responsables y activar mecanismos de respuesta dentro de los flujos corporativos.
Para lograrlo, es fundamental apoyarse en sistemas de clasificación mediante etiquetas, que permiten identificar la sensibilidad de la información y aplicar políticas independientemente del canal o del dispositivo. De este modo, es posible bloquear acciones como el cifrado no autorizado o la exfiltración de datos, tanto si es intencionada como accidental, garantizando una protección coherente en cualquier entorno.
Finalmente, para responder de forma eficaz a cualquier escenario, resulta imprescindible contar con capacidades de auditoría que permitan registrar y analizar todas las acciones realizadas sobre los datos, asegurando visibilidad, trazabilidad y mejora continua en la postura de seguridad. Con Symantec DPSM conseguimos no solo saber dónde están los datos, quien los usa, y prevalencia de orígenes, es decir, todo el contexto que necesitamos, sino también donde existen datos duplicados, para poder sanear nuestros repositorios y reducir costes.











