Artículo
11 abril 2024

La IA pone a prueba la gobernanza del dato

Con la incorporación de la Inteligencia Artificial (IA), el dato cobra mayor importante. Su gobernanza se convierte en un factor crítico, tanto de cara la eficiencia de los modelos de IA como de la ciberseguridad corporativa.

La Inteligencia Artificial (IA) y, más específicamente, la IA Generativa (GenAI) y los grandes modelos de lenguaje (LLM, por su acrónimo en inglés) han supuesto un cambio disruptivo en la gobernanza del dato. No sorprende, pues, que el lema del próximo Congreso&EXPO ASLAN2024, organizado por la Asociación @aslan los próximos 17 y 18 de abril en el Palacio de Congresos de Madrid, sea IA. Un gran avance en digitalización. Todo cambia.

Si con la explosión del big data ya comenzó a hablarse de la economía del dato, hoy en día el valor de éste se ha multiplicado exponencialmente. Sin embargo, no todos los datos son iguales ni tienen el mismo valor, ya sea desde la óptica del negocio en sí como de la IA. Determinar esta valor y catalogar convenientemente los datos no es un asunto baladí; de ello depende la ubicación que les demos y, por tanto, cuestiones como la latencia en el procesamiento de esos datos, su protección y su recuperación en caso de que las defensas caigan.

A fin de cuentas y como indica Francisco Torres Brizuela, Channel, Alliances & Cloud Director de NetApp, “en el mundo de la ciberseguridad, el dato es la última frontera; una vez que se han hecho con tus datos, estás muerto”… salvo que se cuente con un plan de resiliencia que permita que haya continuidad en el negocio. La IA en este escenario es un arma de doble filo, pues se emplea de cara las ciberdefensas, pero también a los ciberataques.

Estos ataques son cada vez más sofisticados y, gracias a la IA, pueden llegar a burlar las defensas y que el malware de encriptación en un ransomware esté tanto en el entorno productivo como de recuperación. Ante este panorama, la industria ha reaccionado y ya existen en el mercado soluciones que mediante machine learning aprenden de los ataques que sufren cientos de miles de empresas para, de ese modo, no sólo anticiparse al malware sino, además, tenemos varias líneas simultáneas de resiliencia como una suerte de anti-ransomware autónomo.

¿Modelo abierto o cerrado?

Es imperativo tener una visión muy holística de los datos, extremo a extremo, desde el edge hasta los entornos cloud, pasando por la infraestructura on-premise. Desde el punto de vista de Juan Manuel Bernal, Director Comercial de HPE, “las organizaciones han de ser capaces de gestionar ese dato durante todo su ciclo de vida y proporcionar herramientas, especialmente a los desarrolladores, para que puedan innovar, jugando con ese dato y explotándolo dando lugar a la IA a escala”, esto es, escalando desde el escritorio de un desarrollador hasta el supercomputador más grande del mundo.

En cierto modo, este proceso está en construcción y, si bien es cierto que buena parte de los avances en IA proceden del mundo del software libre, no todas las compañías se sienten cómodas adoptando LLMs abiertos. El debate es interesante, dado que por un lado, parece lógico pensar que haya temor a dar acceso a los datos empresariales a LLMs abiertos y, por otro, tampoco es descabellado reclamar esta apertura para tener garantías de transparencia y evitar sesgos.

Bruno Tomaz, Senior Solutions Engineer Compute & Networking de Dell Technologies, considera que la tendencia estará marcada por un modelo híbrido, de manera que “las organizaciones utilicen el abierto para entrenar y para casos como bots y call centers; y recurran al cerrado para trabajar con la información confidencial”.

Asimismo otro argumento para defender los modelos cerrados se encuentra en la diferenciación, puesto que la definición de un algoritmo propio puede aportar una ventaja competitiva respecto a quienes comparten un mismo LLM, afirman algunos expertos.

Supervisión continua

Las empresas tienen ante sí nuevos desafíos a la hora de aprovechar las ventajas que trae consigo la IA. La cantidad de recursos de computación que precisa es uno de ellos y, precisamente por este motivo, la localización de los datos cerca del lugar donde son procesados puede marcar la diferencia. Disfrutar de libertad de elección para poder llevar el LLM allá donde se precise es algo que las compañías ya están comenzando a valorar.

Por otro lado, tal y como indica Javier Sánchez, responsable de desarrollo de negocio de Red Hat, “otro reto es que hay que estar entrenando constantemente el modelo porque si no, pierde eficiencia según varían los datos y van cambiando los patrones, teniendo que estar constantemente monitorizándolo para que no haya ninguna desviación”. El esfuerzo, no obstante, merece la pena, pues amplía las capacidades y eleva la automatización, liberando recursos humanos para que se dediquen a labores que aportan realmente más innovación al negocio.

¿Te ha parecido útil este contenido?