El proyecto del núcleo de Linux ha establecido una política formal que permite contribuciones de código asistidas por IA, siempre que los desarrolladores sigan nuevas reglas de divulgación estrictas. Las nuevas pautas exigen que los agentes de IA no utilicen la etiqueta legalmente vinculante "Firmado por" y, en su lugar, usen una nueva etiqueta "Asistido por" para mayor transparencia. Esta política ancla legalmente cada línea de código generado por IA y cualquier error o falla de seguridad resultante en la responsabilidad del humano que lo presenta.
La decisión se produce tras meses de debate en el mundo del software de código abierto, que alcanzó su punto máximo en enero cuando Dave Hansen de Intel y Lorenzo Stoakes de Oracle discutieron sobre cómo debería regularse el uso de herramientas de IA en el núcleo. Linus Torvalds cerró la discusión, calificando los debates sobre prohibiciones absolutas como "posturas inútiles". Su postura sostiene que la IA es solo otra herramienta y que los desarrolladores humanos deben ser responsables de su código, en lugar de intentar regular el software que utilizan.
Hasta ahora, los proyectos importantes han adoptado enfoques muy diferentes respecto a la IA. Distribuciones de Linux como Gentoo y NetBSD han optado por prohibir las presentaciones generadas por IA, argumentando que los resultados de los modelos de lenguaje son legalmente "contaminados". La preocupación principal gira en torno al Certificado de Origen del Desarrollador (DCO), que requiere que los humanos certifiquen legalmente que tienen derecho a presentar su código. Red Hat advirtió que esto podría violar licencias de código abierto y destruir el marco del DCO.
Aparte de los problemas legales, los mantenedores de proyectos han luchado contra la creciente cantidad de lo que la comunidad llama "basura de IA". El creador de cURL cerró recompensas por errores tras recibir un aluvión de código alucinado, y proyectos como Node.js y OCaml han visto parches generados por IA de más de 10,000 líneas, lo que ha generado debates existenciales entre los mantenedores. La fricción cultural por el uso no divulgado de código de IA ha sido intensa, como lo demuestra el caso de Sasha Levin, quien enfrentó una fuerte reacción comunitaria tras presentar un parche escrito completamente por un LLM sin divulgarlo.
¿Cómo afectará la nueva política del núcleo de Linux a la transparencia y responsabilidad en el desarrollo de software asistido por IA?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Tom's Hardware EL fecha no especificada. Leer original
https://www.tomshardware.com/software/linux/linux-lays-down-the-law-on-ai-generated-code-yes-to-copilot-no-to-ai-slop-and-humans-take-the-fall-for-mistakes-after-months-of-fierce-debate-torvalds-and-maintainers-come-to-an-agreement