Expertos en ciberseguridad advierten que el 80% de los trabajadores que utilizan inteligencia artificial recurren a herramientas no aprobadas por sus empresas. Un 71% de los encuestados en el Reino Unido admitieron usar herramientas de IA no autorizadas, y la mitad de ellos lo hace semanalmente.
La inteligencia artificial presenta un desafío significativo para las empresas, especialmente en términos de ciberseguridad. Los responsables tecnológicos están preocupados por el uso clandestino de herramientas de IA por parte de sus empleados. Si un trabajador sube documentos confidenciales a una IA no autorizada, podría haber filtraciones de datos. Gregg Bayes-Brown, experto en seguridad tecnológica, señala que aunque el riesgo de filtración es pequeño, la posibilidad de que un competidor chino supere a una empresa es un riesgo considerable.
Leslie Nielsen, directora de seguridad de la información en Mimecast, describe el uso de IA no autorizada como una "muerte lenta y gradual", advirtiendo que muchos no comprenden las implicaciones. Un informe de Microsoft indica que en 2024, el 80% de su personal que utilizaba IA recurría a herramientas no aprobadas. Además, la plataforma de seguridad de IA Reco reporta que en empresas medianas se utilizan 200 herramientas de IA no autorizadas por cada 1000 trabajadores, cifra que sigue creciendo.
¿Cómo pueden las empresas mitigar los riesgos asociados al uso de herramientas de inteligencia artificial no autorizadas por sus empleados?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN HuffPost EL 12/05/2026. Leer original
https://www.huffingtonpost.es/tecnologia/una-muerte-mil-cortes-expertos-ciberseguridad-alertan-80-trabajadores-inteligencia-artificial-recurre-herramientas-aprobadas-empresa-f202605.html