El espejismo de los detectores de inteligencia artificial: por qué no son útiles ni justos

Los detectores de inteligencia artificial presentan problemas técnicos y éticos que los hacen poco fiables e injustos. Aunque se intentan distinguir textos humanos de generados por máquinas, la frontera es cada vez más borrosa y el margen de error puede tener consecuencias graves en el ámbito educativo.

Los falsos positivos, que acusan erróneamente a estudiantes de fraude, pueden causar ansiedad y indefensión. Por otro lado, los falsos negativos, que no detectan el uso de IA, erosionan la confianza en el sistema educativo y desmotivan a los estudiantes. Ajustar los sistemas para minimizar uno de estos errores implica aceptar injusticias en la evaluación.

Incluso si se resolvieran los problemas técnicos, no se abordaría el problema esencial: muchas tareas académicas requieren esfuerzo cognitivo, y la IA puede romper esta relación, alterando el sentido de la evaluación. La dependencia de productos finales como evidencia de aprendizaje es insuficiente y puede llevar a distracciones en lugar de soluciones efectivas.

El uso sistemático de detectores fomenta una lógica de vigilancia que ignora la presunción de inocencia, transformando a los estudiantes en potenciales infractores y desplazando la relación educativa hacia la sospecha.
¿Cómo podemos asegurar una evaluación justa y efectiva en un entorno donde la inteligencia artificial altera la dinámica del aprendizaje?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Conversación EL no disponible. Leer original

https://theconversation.com/el-espejismo-de-los-detectores-de-inteligencia-artificial-por-que-no-son-utiles-ni-justos-281246

Otras entradas que te pueden interesar