La inteligencia artificial avanza a gran velocidad, y con ella surgen nuevos retos regulatorios. La Unión Europea ha implementado el Reglamento de Inteligencia Artificial (RIA), vigente desde el 1 de agosto de 2024, con el objetivo de establecer un marco legal claro y garantizar un desarrollo responsable de esta tecnología. Para entender mejor sus implicaciones, hablamos con Luismi Roura, experto en tecnología y regulación digital, quien nos explica los puntos clave de esta nueva normativa y su impacto en las empresas.
Pregunta: ¿Qué prácticas prohíbe la normativa en IA?
Luismi Roura:
La normativa establece que algunas aplicaciones de inteligencia artificial no son aceptables porque suponen un riesgo inasumible para los derechos fundamentales. Entre ellas está el reconocimiento facial en espacios públicos sin el consentimiento explícito de las personas, salvo en casos muy concretos, como la lucha contra el terrorismo o la búsqueda de personas desaparecidas, siempre con autorización previa. También se prohíben los sistemas de puntuación social que clasifiquen a las personas en función de su comportamiento o características personales, al estilo de lo que ocurre en China, ya que pueden fomentar la discriminación y la exclusión social.
Además, quedan vetadas las aplicaciones que manipulen el comportamiento de los usuarios de manera subliminal o que exploten vulnerabilidades de personas en situación de especial fragilidad, como menores de edad o personas con discapacidad. Otro punto importante es la prohibición del reconocimiento de emociones en lugares de trabajo o en centros educativos, salvo que tenga un fin médico o de seguridad claramente justificado. La normativa también pone freno a la creación de bases de datos de reconocimiento facial obtenidas de manera masiva y sin consentimiento, como a través del scraping de imágenes en internet. Estas restricciones buscan garantizar que la IA se desarrolle de manera ética y respetuosa con los derechos de las personas.
Pregunta: ¿Quién controlará su cumplimiento?
Luismi Roura:
La supervisión de esta normativa no recaerá en un solo organismo, sino que se ha diseñado una estructura multinivel para garantizar su correcta aplicación. A nivel nacional, cada país de la Unión Europea deberá designar autoridades específicas encargadas de vigilar el cumplimiento de la regulación dentro de su territorio. Estas entidades se encargarán de realizar inspecciones, recibir denuncias y sancionar a aquellas empresas o instituciones que no cumplan con la normativa.
En el ámbito europeo, se ha creado la Oficina Europea de Inteligencia Artificial, un organismo central que coordinará esfuerzos y emitirá directrices para garantizar una aplicación homogénea en toda la UE. También se establecerá el Consejo Europeo de IA, formado por representantes de los distintos Estados miembros, que tendrá un papel consultivo y estratégico. Además, habrá un Comité Científico y un Foro Consultivo, que proporcionarán apoyo técnico y asesoramiento experto sobre la evolución de la IA y los posibles riesgos que pueda generar. Todo este sistema de control busca evitar vacíos legales y asegurar que las reglas se cumplan de manera efectiva en todos los países.
Pregunta: ¿Cuáles serán las sanciones?
Luismi Roura:
Las sanciones establecidas en la normativa son bastante contundentes y buscan disuadir cualquier intento de incumplimiento. Para las infracciones más graves, como el uso de prácticas prohibidas, las multas pueden alcanzar hasta 35 millones de euros o el 7% del volumen de negocios global de la empresa, lo que sea mayor. Esto significa que las grandes tecnológicas no podrán eludir la regulación con simples penalizaciones económicas.
Para aquellas empresas que no cumplan con los requisitos de transparencia, seguridad o supervisión en los sistemas de IA de alto riesgo, las sanciones pueden llegar a los 15 millones de euros o el 3% del volumen de negocios anual. Por otro lado, si una compañía proporciona información inexacta a las autoridades reguladoras, la multa será de hasta 7,5 millones de euros o el 1,5% de su facturación global. La normativa también contempla sanciones más reducidas y proporcionales para startups y pymes, con el objetivo de no frenar la innovación en el sector. Las multas comenzarán a aplicarse a partir de agosto de 2025, lo que da un margen de tiempo a las empresas para adaptarse a las nuevas reglas.
Pregunta: ¿Qué pasa con la IA de alto riesgo?
Luismi Roura:
Los sistemas de inteligencia artificial considerados de alto riesgo no están prohibidos, pero sí estarán sujetos a una regulación más estricta. Este grupo incluye las IA que se utilizan en sectores críticos como la salud, la educación, el empleo, las infraestructuras esenciales o la justicia, ya que cualquier fallo o sesgo en estos sistemas puede tener consecuencias graves en la vida de las personas.
Para poder operar en la Unión Europea, estos sistemas deberán cumplir con varios requisitos. Se exigirá que pasen una evaluación de riesgos continua, garantizando que los datos utilizados en su entrenamiento sean de alta calidad para evitar sesgos y decisiones discriminatorias. Además, deberán contar con supervisión humana en todo momento, de manera que las decisiones importantes no queden únicamente en manos de una máquina. También se impondrá la obligación de proporcionar documentación técnica detallada y de asegurar la trazabilidad de los procesos de IA, para que cualquier decisión tomada por estos sistemas pueda ser revisada y explicada.
Otro punto clave es que todas las IA de alto riesgo deberán obtener un marcado CE antes de poder comercializarse en la UE, lo que certificará que cumplen con la normativa. Además, las empresas que las utilicen tendrán que evaluar su impacto en los derechos fundamentales y garantizar que sus empleados reciben formación adecuada para trabajar con ellas. Estas medidas comenzarán a aplicarse en su totalidad a partir de agosto de 2026.
Pregunta: ¿Cómo afecta esto a las empresas?
Luismi Roura:
Para las empresas, esta normativa representa un reto importante, pero también una oportunidad. En primer lugar, todas aquellas que desarrollen o utilicen inteligencia artificial en la UE tendrán que hacer una auditoría interna para revisar sus sistemas y asegurarse de que cumplen con la normativa. Esto significa identificar si alguna de sus IA entra dentro de las categorías de alto riesgo o prohibidas y tomar medidas antes de que las sanciones comiencen a aplicarse.
Además, las empresas tendrán que invertir en formación para sus empleados, ya que la normativa exige que cualquier persona que trabaje con IA entienda cómo funcionan estos sistemas y los posibles riesgos que implican. También deberán establecer mecanismos de control para garantizar la transparencia y la seguridad en el uso de estas tecnologías. Otro aspecto relevante es que, para poder operar en la UE, las compañías deberán asegurarse de que sus proveedores tecnológicos también cumplen con la normativa, lo que podría generar cambios en sus alianzas estratégicas.
Si bien es cierto que la regulación añade una carga administrativa y operativa, también puede convertirse en una ventaja competitiva. Las empresas que adopten IA de manera ética y responsable tendrán una posición privilegiada en el mercado, ya que los consumidores y las instituciones cada vez valoran más la transparencia y la seguridad en el uso de la tecnología. En definitiva, aquellas compañías que se adapten rápidamente no solo evitarán sanciones, sino que podrán diferenciarse en un entorno donde la confianza en la IA será clave para el éxito.
Conclusión
El Reglamento de Inteligencia Artificial de la Unión Europea marca un antes y un después en la regulación de esta tecnología. Con un enfoque basado en la seguridad, la transparencia y la supervisión, la normativa busca equilibrar la innovación con la protección de los derechos fundamentales.
Como señala Luismi Roura, «las empresas que se preparen a tiempo no solo evitarán riesgos legales, sino que podrán aprovechar esta regulación para posicionarse como referentes en el desarrollo de una IA responsable».
Seguiremos atentos a la evolución de esta normativa y su impacto en la industria tecnológica.