Cargando...
Cargando noticias...

Mecanismos de supervisión de sistemas de Inteligencia Artificial: Human in the Loop, Human on the Loop y Human in Command

La inteligencia artificial está cambiando la forma en que tomamos decisiones personales y profesionales, gestionamos servicios y procesamos información. Actualmente, existen sistemas que ayudan a priorizar listas de espera, analizar pruebas diagnósticas, detectar riesgos de abandono escolar, personalizar itinerarios de aprendizaje y evaluar operaciones sospechosas en banca.

A medida que los sistemas de IA adquieren mayor autonomía, surgen preguntas sobre el papel de los humanos en estos procesos y sobre la responsabilidad de las decisiones tomadas. La Guía Ética para una IA confiable de la Comisión Europea establece que la IA debe reforzar la capacidad de decisión humana y contar con mecanismos de supervisión efectivos.

Los enfoques como human-in-the-loop (HITL), human-on-the-loop (HOTL) y human-in-command (HIC) describen distintas maneras de intervención humana. En HITL, el ser humano interviene directamente en el ciclo de decisión del sistema, validando o corrigiendo las sugerencias de la IA. Este modelo es utilizado en situaciones donde las decisiones pueden tener consecuencias significativas.

En HOTL, el sistema actúa de forma autónoma, pero un agente humano monitoriza el proceso y puede intervenir si detecta problemas. Este enfoque se utiliza en sistemas de detección de fraude y filtrado automatizado de contenidos.

En HIC, la intervención humana se sitúa en un plano superior de dirección, definiendo el uso de la IA, límites y criterios de calidad. Este modelo permite que la IA opere con autonomía, pero bajo la supervisión de responsables que auditan resultados y gestionan incidencias.

El enfoque Human out of the Loop (HOOTL) se refiere a sistemas que funcionan sin intervención humana directa, lo que exige mayores precauciones debido a la reducción del margen de corrección humana.
¿Cómo se puede garantizar la responsabilidad humana en sistemas de IA cada vez más autónomos?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN datos.gob.es EL 07/05/2026. Leer original

https://datos.gob.es/es/blog/mecanismos-de-supervision-de-sistemas-de-inteligencia-artificial-human-loop-human-loop-y-human

Otras entradas que te pueden interesar