¿Llegamos a tiempo de controlar la IA antes de que nos controle?
Como dice una de las máximas del periodismo, la actualidad manda. Quería abstraerme de lo que está en boca de todo el mundo, por supuesto, ChatGPT, pero no he podido y, creo además, no debo.
No se me iba de la cabeza la portada semanal de finales de abril de la prestigiosa publicación The Economist. En ella se ven las siglas en inglés de la inteligencia artificial (AI), la A coronada por el círculo luminoso de los santos y la I ungida por unos cuernos rojos diabólicos y rematada por el rabo infernal que sobresale retorcido de su parte trasera.
Me quedo reflexionando sobre el sentido de lo bueno y lo malo en la categorización que el rotativo hace de cada una de las palabras que componen el acrónimo y concluyo que, efectivamente, la inteligencia, humana, es la creadora de lo artificial y, por lo tanto, principal culpable de lo que de ella se derive. Eso ocurre hasta que lo artificial cobra Sentido y Sensibilidad y la inteligencia imbuida se convierte en autónoma.
Si la portada no fuera lo suficientemente impactante, podemos adentrarnos en uno de los artículos publicados y encontrarnos con mi historiador de cabecera, Yuval Noah Harari. Su inteligente reflexión nos lleva a cuestionarnos que quizás estamos tardando en tomar decisiones que limiten el uso de la AI. No podemos ser tan inocentes para pensar que el ser humano será capaz de utilizar tan solo para el bien y no para el mal la asombrosa capacidad de esta inteligencia. Su augurio da escalofríos: Acabamos de encontrar una inteligencia alienígena, aquí en la Tierra. No sabemos mucho sobre ella, salvo que podría destruir nuestra civilización.
Quería dejar reposar, rumiar, repensar los pensamientos que me surgían a borbotones tras la lectura del artículo del escritor israelí, pero la actualidad no me dio tregua. En el día festivo de la Comunidad de Madrid me encuentro en portada con que el “padrino” de la IA deja Google y avisa de los peligros de esta tecnología. Sin entrar en detalles de las circunstancias que rodean su decisión, destaca una de sus afirmaciones que también hemos venido escuchando últimamente de personajes del mundo tecnológico: “se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la AI”. Una idea me sale casi sin meditar, como seguro a muchos de vosotros, controlar antes de que nos controle.
¿Y esto que tiene que ver con las ciberseguridad? como muchos temíamos, llegará antes la democratización de los ataques informáticos que la generalización en el uso de la ciberseguridad: cualquiera, con ayuda de la IA, podrá convertirse en ciberdelincuente.
En efecto, de lo que vamos a oír hablar y mucho, ya valoraremos su efectividad y nuestra resistencia, es del uso de la Inteligencia Artificial como principal herramienta de ataque. Todas las tareas que de manera “manual” estaba realizando el ciberatacante, las puede hacer ahora con ayuda de la IA, desde la intrusión, al ataque de ingeniería social, pasando por el aprendizaje de los usos y costumbres del usuario, el robo de credenciales y las campañas de phishing, entre muchos otros. Además, la IA se convertirá en el propulsor de los ciberataques más sofisticados, efectivos y mejor planeados por los ciberdelincuentes. Las consecuencias pueden ser terribles, con el incremento al ya ingente número de ciberagresiones que sufren las organizaciones, por lo que su infraestructura de seguridad y sus equipos de ciberseguridad se verán desbordados por la profusión de ataques y la necesidad de discernir rápidamente los falsos positivos para focalizarse en los auténticos y críticos y, de esta manera, poder contenerlos lo antes posible.
Por acabar de buen humor y, parafraseando a Harari en la conclusión de su brillante artículo, este texto ha sido generado por un humano, ¿o no?