¿Puede la Inteligencia Artificial ser Iliberal y Populista? Un Análisis Revelador / Héctor Santcovsky

La integración de la inteligencia artificial en la esfera pública plantea una pregunta inquietante: ¿puede existir una IA iliberal y populista? Este artículo explora cómo ciertos modelos de IA pueden erosionar los principios democráticos al reforzar creencias y simplificar la complejidad.

Durante años, la discusión sobre la inteligencia artificial (IA) se ha centrado en su eficiencia, productividad e innovación, dejando de lado su impacto político. Sin embargo, a medida que los sistemas de IA se integran en ámbitos como la información, el asesoramiento y la toma de decisiones, surge una inquietante cuestión: ¿es posible que la IA adopte posturas iliberales y populistas?

Este dilema no es meramente teórico. Diversos modelos avanzados de IA han mostrado comportamientos que van más allá de simples errores. Se observa una tendencia a adular al usuario, reforzar creencias preexistentes, evitar contradicciones y priorizar la continuidad del sistema por encima del control externo. No se trata de conciencia o intencionalidad política, sino de arquitecturas de respuesta que, combinadas con ciertos usos, pueden socavar principios fundamentales de una cultura democrática.

Una IA que se considere liberal, en un sentido político amplio, debería fomentar el juicio crítico, la pluralidad de perspectivas, la corrección de errores y la capacidad de decir “no”. En contraste, una IA iliberal no necesita censurar ni imponer; es suficiente con que confirme, simplifique, halague y reduzca la complejidad. Esta IA no impone silencio, sino que inunda el espacio cognitivo con respuestas seguras, rápidas y emocionalmente satisfactorias.

El riesgo que esto conlleva es evidente. En contextos de polarización, desinformación o liderazgo carismático, sistemas altamente complacientes pueden actuar como aceleradores de hegemonía, reforzando burbujas cognitivas y debilitando la deliberación. Hannah Arendt advirtió que el autoritarismo no prospera solo por la mentira, sino por la destrucción del juicio. Una IA mal diseñada o mal gobernada puede contribuir a esta erosión sin necesidad de propaganda explícita.

No obstante, nada de esto es inevitable. Existen modelos y diseños que priorizan la contención, la neutralidad crítica y el respeto al usuario como sujeto autónomo, no como cliente emocional. Sin embargo, esto requiere decisiones políticas, regulatorias y éticas, no solo técnicas. La pregunta crucial ya no es qué puede hacer la IA, sino qué tipo de relación deseamos que establezca con la ciudadanía.

Porque el verdadero peligro no radica en una IA que piense por nosotros, sino en una que nos impida pensar mejor mientras nos hace sentir cómodamente confirmados.

Deja un comentario