La gente en la inteligencia artificial (IV), por Daniel Innerarity

El control de la gente sobre las decisiones tecnológicas que le afectan se considera un atributo individual, pero la complejidad y la ignorancia dificultan el consentimiento informado. La tarea de auditar algoritmos debe ser colectiva, no solo un derecho individual.

La defensa de la privacidad no puede ser una tarea únicamente individual, ya que la exposición de datos personales puede afectar a otros. La regulación pública es necesaria para gestionar la privacidad como un bien común. La transparencia en inteligencia artificial también requiere un enfoque colectivo, ya que las asimetrías en la comprensión pueden llevar a manipulaciones por parte de actores más competentes.

La construcción social de la confianza es más efectiva que una transparencia mecánica. La inspección de algoritmos debe ser realizada por auditores de confianza, y se requieren instituciones que representen y defiendan a los individuos en entornos complejos. La democratización de la tecnología implica su inserción en espacios que reflejen el pluralismo de la sociedad.

El entorno digital actual presenta problemas de falta de diversidad, lo que puede reforzar la discriminación. Es necesario que los algoritmos reflejen la diversidad de la sociedad para que representen adecuadamente a sus usuarios.
¿Cómo puede la sociedad garantizar que la inteligencia artificial refleje su diversidad y no refuerce desigualdades existentes?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 16/05/2026. Leer original

https://www.lavanguardia.com/opinion/20260516/11539148/gente-inteligencia-artificial-iv.html

Otras entradas que te pueden interesar