Hillstone Networks, proveedor líder de soluciones de protección de infraestructura, esclarece algunos aspectos del ChatGPT y su relación con el cibercrimen. Si bien es cierto que ChetGPT no está diseñado para fines criminales, se trata de una herramienta que los cibercriminlaes también están utilizando para llevar a cabo actividades ilegales, como generar correos electrónicos falsos o mensajes de texto persuasivos para intentar engañar a personas y hacerlas caer en una trampa.
Además, los cibercriminales podrían utilizar ChatGPT para mejorar su capacidad de crear algoritmos de phishing y otros ataques de ingeniería social que sean más sofisticados y difíciles de detectar. Es decir, ChatGPT también es capaz de generar código malicioso.
GPT-4, el inicio de la alerta
Recientemente la empresa de investigación e implementación de inteligencia artificial conocida como OpenAI que diseñó ChatGPT, anunció una actualización denominada GPT-4, la cual incluye mejores capacidades de razonamiento y un 82% menos de probabilidades de responder a solicitudes de contenido no permitido.
Y este último tema fue precisamente el que causó inquietud en el mercado de ciberseguridad, debido a que se hicieron públicos algunos ejercicios donde se utilizaba ChatGPT para desarrollar diversos tipos de ataques maliciosos. Si bien la plataforma alertaba al usuario cuando detectaba un posible riesgo o ilegalidad en la petición, haciendo las preguntas adecuadas el usuario lograba obtener la información requerida.
En este sentido se abrieron diferentes preguntas acerca de si este sistema podría ser utilizado por ciberdelincuentes para facilitar el desarrollo de nuevos ataques de malware. Y la evidencia hace pensar que es posible, por su capacidad de crear correos de phishing persuasivos, personalizados y masivos, e incluso por su capacidad de crear malware.
Pero esto es un arma de doble filo ya que “contar con la ayuda de un sistema de inteligencia artificial como ChatGPT no significa que el desarrollo de código malicioso haya llegado al punto de ser indetectable, sino todo lo contrario. ChatGPT juega también a favor de los que combaten el cibercrimen, ya que desvela rápidamente la función para la que se ha creado el código” comenta Marcelo Palazzo, Director Comercial para la región de Europa de Hillstone Networks. “Es importante tener en cuenta que cualquier herramienta, incluyendo ChatGPT, puede ser utilizada tanto para fines legítimos como ilegítimos. La responsabilidad recae en los usuarios de la herramienta para utilizarla de manera ética y legal; y en los desarrolladores para implementar medidas de seguridad y control de calidad para evitar el uso malintencionado” concluye Palazzo.
Hillstone Networks iSource XDR, una herramienta basada en el comportamiento
Las herramientas actuales de ciberseguridad desarrolladas por Hillstone Networks, como iSource XDR, protegen la infraestructura y datos de las empresas a través de servicios de visibilidad e inteligencia de amenazas, los cuales permiten ver, comprender y actuar rápidamente contra las ciberamenazas multicapa y multietapa.
Hillstone iSource XDR tiene la capacidad de detectar amenazas basadas en comportamiento, es decir, la tecnología permite identificar si un archivo está realizando tareas para las que no fue diseñado. Por ejemplo, hay ataques que provienen de un archivo legítimo y después de un tiempo despliegan sus verdaderas intenciones; en este caso la inteligencia artificial de iSource XDR investiga el incidente y determina qué hacer para detener la amenaza, además ubica de dónde provino el ataque y cuáles son las alternativas para mitigar esa vulnerabilidad.
Utilizando este tipo de tecnologías, que por cierto también están basadas en inteligencia artificial, las empresas pueden tener la certeza de que cuentan con las mejores herramientas para hacer frente a los ataques maliciosos, aun cuando usuarios malintencionados hayan hecho uso de herramientas como ChatGPT o la nueva versión GPT-4.