Repensar el control humano en la era de los agentes de IA


La IA se está convirtiendo en un agente de decisión, asumiendo tareas que antes requerían juicio humano. Para las organizaciones, el desafío ya no es solo qué pueden hacer estos sistemas, sino cómo deben utilizarse.

La IA evoluciona a gran velocidad. Al principio, solo le hacíamos preguntas; ahora puede gestionar flujos de trabajo, tomar decisiones y ejecutar tareas de forma automática. Los llamados “agentes de IA” son sistemas capaces de operar sin intervención humana. Google los define como “sistemas de software que utilizan IA para perseguir objetivos y completar tareas en nombre de los usuarios”. Estos agentes impulsarán sin duda la productividad, pero surge una cuestión clave: ¿hasta qué punto debemos confiar en ellos? ¿Dónde se traza la línea entre eficiencia y autonomía humana? Este fue el eje de una mesa redonda celebrada en el 4YFN, moderada por Irene Unceta, profesora asociada del Departamento de Data, Analytics, Technology and AI de Esade. En ella participaron Sergi Bastardas, fundador y CEO de OrbioAI; Migle Laukyte, profesora de Inteligencia Artificial y Derecho en la Universitat Pompeu Fabra y miembro del Grupo Europeo de Ética en Ciencia y Nuevas Tecnologías; y Xavier Domingo i Albin, director de la Unidad de Inteligencia Artificial Aplicada de Eurecat. Juntos analizaron no solo las capacidades de los agentes de IA, sino también cómo las organizaciones pueden garantizar que el control humano siga siendo real y efectivo.

Las empresas están delegando cada vez más tareas en la IA. Bastardas destacó cómo los agentes ya se utilizan en procesos operativos como la gestión de empleados o la atención al cliente. Estos sistemas pueden procesar más datos a mayor velocidad que los humanos, adaptarse a contextos cambiantes y tomar decisiones en tiempo real. Esto no es necesariamente negativo. “Puede que estemos sobreestimando el juicio humano: los sistemas de IA ofrecen más trazabilidad y consistencia”, señala Bastardas. La magnitud del fenómeno es significativa. Según McKinsey, para 2030 hasta el 30 % de las actividades laborales actuales en Estados Unidos podrían automatizarse mediante IA generativa, especialmente en áreas como atención al cliente, operaciones o recursos humanos.

Los riesgos incluyen que los humanos acaben supervisando sistemas que no comprenden del todo. Domingo i Albin plantea una preocupación clave: “¿Qué ocurrirá cuando tengamos cientos de agentes interactuando entre sí? ¿Cómo detectaremos un error? ¿Quién será responsable?”. A medida que los sistemas se vuelven más complejos, los fallos pueden pasar desapercibidos y la responsabilidad se diluye. Las implicaciones legales y éticas son fundamentales. Laukyte subraya que la escala y el impacto de la IA actual no tienen precedentes. Es esencial definir claramente dónde recae la responsabilidad. “Los humanos deben establecer los objetivos y seguir siendo responsables de los resultados”, afirma. El Reglamento de IA de la Unión Europea sigue esta lógica: un marco basado en el riesgo, centrado en el uso de los sistemas más que en la tecnología en sí.
¿Está la humanidad preparada para asumir la responsabilidad en un mundo donde la IA toma decisiones autónomas?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Do Better EL 07 Abril 2026. Leer original

https://dobetter.esade.edu/es/repensando-control-humano-ia

Otras entradas que te pueden interesar