Riesgos asociados al uso de imágenes personales en Inteligencia Artificial
El uso de imágenes personales en herramientas de IA puede implicar riesgos legales y éticos significativos, según la AEPD y expertos en protección de datos.
La Agencia Española de Protección de Datos (AEPD) ha emitido una guía sobre el uso de imágenes de terceros en sistemas de Inteligencia Artificial (IA), alertando sobre los riesgos legales y éticos que esto conlleva. La consultoría Data Protect Plus ha analizado estos riesgos, destacando que el rostro de una persona es considerado un dato personal protegido por el Reglamento General de Protección de Datos (RGPD). Esto implica que cualquier imagen que permita identificar a una persona está sujeta a esta normativa.
Utilizar fotografías de terceros para generar avatares o memes sin su consentimiento puede constituir un tratamiento ilícito de datos. Por ejemplo, subir la foto de un amigo a una aplicación para crear una versión caricaturizada puede tener implicaciones legales si no se cuenta con la autorización expresa de la persona. En el ámbito empresarial, el riesgo se amplifica, ya que el uso de imágenes de empleados o clientes sin una base legal adecuada puede resultar en sanciones y daños a la reputación de la empresa.
Otro riesgo significativo es la pérdida de control sobre la información una vez que se sube una imagen a plataformas de IA. Muchas de estas herramientas almacenan datos en servidores externos, frecuentemente fuera de la Unión Europea. Aunque un usuario elimine el resultado generado, los sistemas pueden haber procesado y aprendido de los rasgos biométricos, complicando la garantía de eliminación total de la información.
La guía también menciona peligros asociados al uso indebido de imágenes, como la creación de deepfakes, ciberacoso y suplantación de identidad, que pueden ocasionar daños personales, reputacionales y legales. Tanto usuarios como empresas deben ser responsables del uso que hacen de estas tecnologías. Data Protect Plus enfatiza que la innovación debe ir acompañada de seguridad jurídica y protección de la privacidad, instando a las organizaciones a verificar el cumplimiento normativo y establecer protocolos claros sobre el consentimiento y uso de datos personales.
¿Cómo pueden las empresas garantizar la protección de datos personales al utilizar herramientas de IA?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN MARCA EL 23 de febrero de 2026. Leer original