El uso de agentes de inteligencia artificial en decisiones empresariales críticas presenta nuevos riesgos. Un informe de BCG destaca la necesidad de replantear la gestión del riesgo ante estos sistemas autónomos.
Desafíos de la IA Agencial en las Organizaciones
El despliegue de agentes de inteligencia artificial en funciones empresariales críticas ha llevado a las organizaciones a enfrentar un ‘nuevo punto de inflexión’ en la gestión de riesgos. Según un informe de Boston Consulting Group (BCG), estos sistemas han comenzado a jugar un papel activo en la toma de decisiones, lo que genera riesgos elevados y, en muchos casos, desconocidos que desafían los modelos existentes de control y supervisión. La managing director de BCG, Anne Kleppe, enfatiza que la IA agencial redefine la gestión del riesgo y la calidad de los sistemas de inteligencia artificial.
Kleppe señala que, aunque los agentes autónomos amplían significativamente las capacidades de las organizaciones, también pueden desviarse de los resultados empresariales esperados. El principal desafío radica en mantener su alineación con la estrategia y los valores corporativos sin limitar su rapidez y autonomía. La base de datos ‘AI Incidents Database’ indica que los incidentes relacionados con la inteligencia artificial han aumentado un 21% entre 2024 y 2025, lo que refleja que los riesgos asociados a estos sistemas son una realidad operativa que puede traducirse en exposiciones financieras y reputacionales relevantes.
BCG también destaca que la adopción de agentes de IA está modificando la naturaleza del riesgo operativo en diversas industrias. En contextos donde las decisiones afectan directamente a personas o cadenas de suministro, la lógica de optimización de estos sistemas ha introducido nuevos tipos de riesgo que pueden generar resultados no deseados. Ejemplos incluyen tensiones en la atención sanitaria y fricciones en la gestión bancaria. Un informe reciente sugiere que, aunque solo el 10% de las empresas permiten decisiones autónomas por parte de la IA, esta cifra podría aumentar al 35% en los próximos tres años.
Para gestionar estos riesgos, BCG propone un marco estructurado que incluye la creación de una taxonomía de riesgos específica para los agentes de IA y la simulación de condiciones reales antes de su implementación. La supervisión del comportamiento en tiempo real es otra recomendación clave, permitiendo un seguimiento continuo del rendimiento y comportamiento de estos sistemas.
¿Cómo pueden las empresas equilibrar la eficiencia de la IA con la gestión de riesgos?
Fuente: Europa Press