Los detectores de inteligencia artificial presentan problemas técnicos y éticos que los hacen poco fiables e injustos. Aunque se intentan distinguir textos humanos de generados por máquinas, la frontera es cada vez más borrosa y el margen de error puede tener consecuencias graves en el ámbito educativo.
Los falsos positivos, que acusan erróneamente a estudiantes de fraude, pueden causar ansiedad y indefensión. Por otro lado, los falsos negativos, que no detectan el uso de IA, erosionan la confianza en el sistema educativo y desmotivan a los estudiantes. Ajustar los sistemas para minimizar uno de estos errores implica aceptar injusticias en la evaluación.
Incluso si se resolvieran los problemas técnicos, no se abordaría el problema esencial: muchas tareas académicas requieren esfuerzo cognitivo, y la IA puede romper esta relación, alterando el sentido de la evaluación. La dependencia de productos finales como evidencia de aprendizaje es insuficiente y puede llevar a distracciones en lugar de soluciones efectivas.
El uso sistemático de detectores fomenta una lógica de vigilancia que ignora la presunción de inocencia, transformando a los estudiantes en potenciales infractores y desplazando la relación educativa hacia la sospecha.
¿Cómo podemos asegurar una evaluación justa y efectiva en un entorno donde la inteligencia artificial altera la dinámica del aprendizaje?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Conversación EL no disponible. Leer original
https://theconversation.com/el-espejismo-de-los-detectores-de-inteligencia-artificial-por-que-no-son-utiles-ni-justos-281246