El hecho de que cada vez más decisiones públicas se tomen mediante procedimientos algorítmicos nos obliga a renegociar el espacio híbrido de acción en el que nos desenvolvemos los seres humanos y los artefactos tecnológicos.
No habrá verdadera democracia si no introducimos estos artefactos en un ámbito que nos permita contestar sus decisiones. Las posibilidades de contestación pueden adquirir diversas formas (monitorización, evaluación, supervisión, crítica, rendición de cuentas…) y llevarse a cabo en diferentes momentos (en los datos, los algoritmos, los resultados, la regulación…). En cualquier caso, se trata de modos y momentos en los que nosotros los humanos nos hacemos valer como quien tiene una capacidad de proporcionar o no legitimidad al sistema sociotécnico.
La primera posibilidad de contestación está en el ámbito de los datos. Durante los últimos años se ha desarrollado una suerte de activismo político en torno a las estadísticas. En la medida en que clasifican, procesan y realizan predicciones a partir de los datos, los algoritmos son políticos porque hacen que el mundo aparezca de un modo y no de otro. Muchos grupos se han dado cuenta de que las estructuras sociales están condicionadas por la decisión en favor de ciertos indicadores y criterios de valoración, incluidos los procedimientos automatizados. Se han constituido movimientos, como la oenegé Algorithm Watch, que exigen transparencia y derecho a la crítica, especialmente por parte de quienes son clasificados de ese modo.
Otra forma de contestación es la exigencia de trasparencia. Las diversas reivindicaciones de publicidad tienen como efecto un empoderamiento de la gente respecto de la tecnología. Una vez que se hace pública la computación, los usuarios de alguna manera la domestican utilizándola de diversas maneras, subvirtiéndola incluso o reelaborándola. En este sentido, los algoritmos no son lo que crean los programadores sino también lo que los usuarios hacen de ellos cada día. El algoritmo configura el modo como se comportan los usuarios, pero, al mismo tiempo, lo que el algoritmo hace está condicionado por el input que recibe de los usuarios. La gente no solo obedece, sino que resiste, subvierte y transgrede el trabajo de los algoritmos, lo redesarrolla para objetivos que no coinciden con aquellos para los que fue diseñado.
La potencialidad de contestación de la transparencia depende de cómo la concibamos. Una transparencia entendida como justificación de las decisiones tiene la capacidad de asegurar más legitimidad en el público que la transparencia del proceso. El “derecho a la explicación” no tiene por qué ser una autopsia de los sistemas, sino que funciona más bien como un principio de autocontrol. Entendido así, este principio es compatible con la complejidad del sistema y reduce un poco la asimetría cognitiva entre diseñadores y afectados.
Los algoritmos son políticos porque hacen que el mundo aparezca de un modo y no de otro. La cuestión no es si entendemos el funcionamiento del algoritmo, sino si se nos han suministrado las claves para valorar la justificación de las decisiones que se siguen de su utilización. Este tipo de publicidad debería servir para capacitar al público de manera que pueda debatir las decisiones e incluso exigir su revisión.
Aunque, debido a la complejidad de los sistemas, el “examen de la caja negra” no pueda realizarse en cada decisión concreta, sí que pueden revelarse los criterios generales tenidos en cuenta y de este modo estaremos en condiciones de diagnosticar su falta de calidad o las discriminaciones implícitas, de manera que esta valoración motive intervenciones para corregir el programa.
¿Cómo podemos garantizar que las decisiones algorítmicas sean justas y transparentes en un entorno cada vez más automatizado?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 11/04/2026. Leer original
https://www.lavanguardia.com/opinion/20260411/11510235/gente-inteligencia-artificial-iii.html