Oxford propone que los ingenieros de inteligencia artificial juren un compromiso ético similar al de los médicos, destacando la necesidad de una deontología en un sector que impacta la vida humana.

Compartir:

La iniciativa Oxford Oath busca que los profesionales de la inteligencia artificial se comprometan a desarrollar esta tecnología bajo orientaciones éticas, similar al juramento médico. Sara Lumbreras, ingeniera y codirectora de la cátedra Hana y Francisco José Ayala de Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas, afirma que en sectores con un gran impacto en la vida humana, cumplir la ley no es suficiente. Lumbreras señala que la confianza pública en profesiones como la medicina y el periodismo depende de reglas éticas interiorizadas, no solo de sanciones legales.

El Oxford Oath no se establece como ley, sino como un compromiso para construir una comunidad profesional con expectativas compartidas y para visibilizar límites éticos que no deberían cruzarse, aunque técnicamente sea posible. Lumbreras advierte que la ética se ha convertido en un factor competitivo, lo que puede ser problemático si se deja en manos de empresas o gobiernos, ya que puede degenerar en marketing reputacional o depender de intereses estatales.

La urgencia de esta propuesta se ve amplificada por la dirección actual de la tecnología. Anthropic, por ejemplo, ha cambiado su enfoque, con un 79% de las conversaciones en Claude Code dedicadas a la automatización directa. A medida que la inteligencia artificial se integra en infraestructuras críticas, tratar la ética como un aspecto secundario se vuelve insuficiente. Además, existen riesgos cotidianos, como sistemas diseñados para agradar al usuario y reforzar sus creencias, lo que puede llevar a problemas de dependencia emocional.

El conflicto entre el Pentágono y Anthropic, que se opone a la utilización de su IA en máquinas autónomas letales o en vigilancia masiva, refleja una transformación profunda en el uso de la inteligencia artificial, que ya afecta áreas como la guerra, la vigilancia, la salud mental, la educación y el trabajo técnico crítico. Los ingenieros de IA no pueden considerarse meros técnicos neutrales en este contexto.

¿Es posible establecer un marco ético sólido en el desarrollo de la inteligencia artificial sin comprometer la innovación y la competitividad?

.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN La Vanguardia EL 15 de marzo de 2026. Leer original

Otras entradas que te pueden interesar

Compartir:
← Volver a la portada