Artículo
31 julio 2025

¿Es la IA un espejo o le estamos dando una mente?

Los agentes de IA presentan un potencial de doble filo.

La IA ha evolucionado a una IA agéntica. Los primeros sistemas —sistemas expertos, modelos de aprendizaje automático— simplemente reflejaban la lógica de decisión humana. Hoy en día, la IA con capacidad de agéntica, ejecuta acciones reales con consecuencias en el mundo: reservar citas, gestionar logística, detectar fraudes y asistir en decisiones médicas.

Una IA agéntica es un software que persigue un objetivo, percibe su entorno, elige acciones y se adapta cuando la realidad no responde como se espera. La demostración de Duplex de Google marcó un punto de inflexión: una IA programando citas por teléfono de manera autónoma, sin que los humanos notaran que no estaban hablando con otra persona. Esto representa una transformación fundamental: la IA ya no se limita a responder comandos, sino que inicia y ejecuta tareas de forma independiente.

Las empresas tienen “altas expectativas” respecto a los agentes de IA, al tiempo que reconocen nuevos desafíos en seguridad y gobernanza. Según la definición clásica de IA —entidades que perciben entornos y realizan acciones dirigidas a objetivos—, los sistemas actuales se acercan a una verdadera IA agente mediante secuencias de acción extendidas en entornos abiertos.

Contrario a la creencia popular, los agentes de IA actuales no son entidades conscientes con libre albedrío; operan dentro de parámetros definidos por humanos. Un análisis de Forrester revela que la mayoría de los agentes “autónomos” siguen siendo asistentes sofisticados; una IA verdaderamente autodirigida “aún no existe” en producción. Incluso los agentes más avanzados en atención al cliente u optimización de la cadena de suministro ceden ante los humanos o las reglas preestablecidas cuando enfrentan situaciones nuevas o de alto riesgo. Este diseño con humanos en el circuito es intencional. Las empresas quieren los beneficios de sistemas autónomos, pero esa autonomía debe estar respaldada por la confianza.

La cuestión de la inteligencia, inteligencia vs imitación, sigue siendo central. Modelos de lenguaje como GPT-4, Claude, Grok y Gemini logran fluidez imitando estadísticamente patrones escritos por humanos, lo que Emily Bender denomina “loros estocásticos”. Predicen palabras basadas en probabilidades extraídas de grandes conjuntos de datos, sin comprensión genuina. Una IA puede recomendar intervenciones médicas porque los datos de entrenamiento muestran patrones similares, sin tener un razonamiento médico realSin embargo, las fronteras se difuminan. Los investigadores documentan habilidades de razonamiento emergentes no programadas explícitamente. Investigaciones de Microsoft sugieren que GPT-4 muestra “destellos” de inteligencia general. Los expertos están divididos: Gary Marcus lo ve como una extensión sofisticada de patrones “sin semántica, sin significado, sin comprensión”; Geoffrey Hinton observa comportamientos que cada vez se asemejan más al razonamiento, aunque por mecanismos distintos. Las IA actuales son imitadoras poderosas, notablemente útiles sin ser conscientes. Pueden analizar contratos legales o depurar código de forma impresionante, pero carecen de comprensión total del contexto o de matices morales.

En realidad no podemos olvidar que existe una infraestructura humana detrás de la autonomía que concedemos a la IA. La IA autónoma oculta un gran esfuerzo humano. La capacidad de ChatGPT proviene de su entrenamiento con miles de millones de palabras generadas por humanos, una especie de repositorio de conocimiento colectivo. Hacer que estos modelos sean útiles y seguros requiere una intensa curación humana. OpenAI empleó equipos para etiquetar salidas tóxicas y aplicó aprendizaje por Refuerzo con Retroalimentación Humana (RLHF). Investigaciones de TIME revelaron que trabajadores subcontratados en Kenia (pagados menos de $2/hora) etiquetaron meticulosamente contenido horrífico, crucial para los filtros de seguridad de ChatGPT.

La huella humana se extiende a través de arquitecturas y algoritmos, que incluyen decisiones de diseño implícitas y barreras éticas. Cuando los optimizadores de la cadena de suministro de IA redirigen mercancías, ejecutan estrategias programadas por humanos. Incluso los vehículos autónomos operan dentro de parámetros definidos por ingenieros. La IA refleja tanto nuestras fortalezas (conocimiento médico) como nuestras debilidades (sesgos históricos). Reconocer la actividad humana detrás de la IA mantiene la responsabilidad, rastreando errores a las decisiones sobre datos, objetivos definidos y supervisión implementada.

Hay capacidad pero también límites. Los agentes de IA presentan un potencial de doble filo. Abordan tareas que antes parecían ficticias: atención autónoma de consultas de comercio electrónico, optimización dinámica de cadenas de suministro y análisis médico de imágenes con nivel sobrehumano. Un estudio de BCG muestra que dos tercios de las organizaciones están explorando agentes de IA. La producción de investigaciones creció exponencialmente de 2022 a 2024, con cientos de startups entrando al espacio. Pero la historia invita a la cautela. Watson de IBM ganó Jeopardy! y luego falló estrepitosamente en salud, prometiendo demasiado y entregando poco debido a las complejidades de los hospitales.

Sin duda, una IA “autónoma” podría ejecutar instrucciones dañinas o escalar errores. En ciberseguridad, una IA autónoma podría apagar sistemas críticos, por ejemplo. Un líder tecnológico de BCG reconoce que veremos “probablemente algunos fracasos épicos” en la adopción temprana de IA autónoma. Solo el 25% de los ejecutivos confirma haber experimentado un valor significativo de sus inversiones en IA; la mayoría no ha obtenido beneficios debido a brechas de habilidades, problemas de datos o mala aplicación.

La trayectoria de la IA no es una transformación dramática, sino una expansión gradual de la autonomía. Para representar los grados de autonomía, podemos me gusta hablar del marco SPARK (Trabajador del Conocimiento Autónomo, Resiliente, Adaptativo y con Planificación Propia) que define estos niveles. La madurez de la automatización va desde herramientas basadas en reglas (Nivel 1), hasta asistentes que hacen sugerencias (Nivel 2), especialistas de dominio que actúan con mínima supervisión (Nivel 3), “empleados digitales” totalmente autónomos que persiguen objetivos en múltiples funciones (Nivel 4), y en su punto más alto, ecosistemas autoorganizados donde múltiples agentes se coordinan, generan nuevos agentes y los humanos solo supervisan estratégicamente (Nivel 5).

Cada nivel de autonomía incrementa las demandas, que deben coincidir con un diseño intencional y una supervisión adecuada. El futuro pasa por visualizar la IA como un amplificador de la experiencia humana, no como su reemplazo. Esto requiere educación continua sobre las fortalezas y debilidades de la IA, una gobernanza sólida (auditorías de modelos, controles de sesgos, procesos de respaldo) y humanos en el circuito para la toma de decisiones críticas.

A medida que los agentes autónomos maduren, transformarán industrias no reemplazando, sino elevando el juicio humano. Al ir más allá del entusiasmo tecnológico y asumir la responsabilidad ética, garantizamos que este capítulo se defina no solo por lo que la IA puede hacer, sino por la sabiduría y el criterio con que la implementamos.

¿Te ha parecido útil este contenido?

 

Adnan Masood
UST
PhD. Chief AI Architect

Asociación @aslan
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.