La respuesta del kernel a las herramientas de código con IA
Tras meses de debate, el proyecto del kernel de Linux ha formalizado su primera política explícita para las contribuciones de código asistidas por IA. Según resume ZDNET, la nueva guía refleja un compromiso práctico, no una prohibición ni una aprobación sin límites. El mensaje central es simple: los desarrolladores pueden usar herramientas de IA, pero no pueden transferirles la responsabilidad. En el mundo de Linux, donde la calidad del código, la disciplina de licencias y las normas de revisión son inusualmente estrictas, esa distinción lo es todo.
La política establece tres principios. Primero, los agentes de IA no pueden añadir etiquetas Signed-off-by, porque solo los contribuyentes humanos pueden certificar el cumplimiento con el Developer Certificate of Origin del kernel. Segundo, las entregas asistidas por IA deben incluir una etiqueta Assisted-by que nombre el modelo, el agente y las herramientas auxiliares involucradas. Tercero, el remitente humano asume plena responsabilidad por revisar el código, garantizar el cumplimiento de licencias y hacerse cargo de cualquier error o vulnerabilidad de seguridad que resulte. Estas reglas convierten el uso de IA de una variable oculta en una parte divulgada del proceso de contribución.
El resultado tiene menos que ver con el romanticismo de la inteligencia artificial que con preservar la cadena de responsabilidad del kernel. El kernel de Linux no es solo un proyecto de software. Es un sistema legal y operativo con normas claras sobre procedencia, revisión y propiedad. Si el código generado entra en ese sistema sin atribución transparente, los mantenedores pierden visibilidad sobre el riesgo. El nuevo requisito Assisted-by aborda eso al dar a los revisores una señal clara de cómo se produjo el parche y dónde puede requerirse un escrutinio adicional.
Transparencia, no teatro
ZDNET describe el enfoque como pragmático, y ese es el marco correcto. La política no finge que las herramientas de IA estén ausentes del desarrollo moderno, ni las trata como pares de confianza. En cambio, las clasifica como herramientas cuyos resultados deben divulgarse y cuyas consecuencias siguen siendo humanas. Probablemente esa sea la única posición que el kernel podía adoptar con credibilidad. El proyecto no puede permitir un modelo de autoría ambiguo cuando la certificación legal y la revisión técnica son tan centrales para aceptar cambios.
La política estuvo moldeada por la controversia. El texto fuente señala un debate que se intensificó después de que Sasha Levin, ingeniero de Nvidia y desarrollador del kernel, presentara un parche para Linux 6.15 generado íntegramente por IA, incluido el changelog y las pruebas, aunque revisó y probó el resultado antes de enviarlo. Ese episodio cristalizó una pregunta que muchas comunidades de software enfrentan ahora: si la IA ayuda a producir un parche, ¿qué debe divulgarse y quién responde por el trabajo?
La respuesta del kernel es notable porque rechaza ambos extremos. No exige que los desarrolladores eviten la IA por completo, ni les permite esconderse detrás de la automatización. Esa combinación podría resultar influyente más allá de Linux. Muchos proyectos de código abierto y empresariales todavía improvisan sus propias normas sobre el código generado. El kernel ha ofrecido ahora un modelo en el que la divulgación es obligatoria y la responsabilidad no se transfiere.
Por qué esto importa para la gobernanza del software
La importancia más amplia es que la programación asistida por IA se está convirtiendo en un asunto de gobernanza, no solo de productividad. Un parche que compila no es necesariamente un parche en el que se pueda confiar. Los proyectos necesitan saber de dónde vino el código, quién lo revisó y quién puede responder por él después. En bases de código de alto riesgo, esas preguntas son inseparables de la seguridad, el mantenimiento y el cumplimiento legal.
Por eso la etiqueta Assisted-by importa, aunque parezca un detalle de procedimiento menor. Da contexto a los mantenedores. Puede influir en cuán intensamente se revisa un parche. También puede desalentar el uso descuidado de herramientas de IA al hacer inevitable la divulgación. Si los contribuyentes saben que el trabajo generado será marcado para un escrutinio adicional, tienen un incentivo más fuerte para revisarlo rigurosamente antes de enviarlo.
Las nuevas reglas de la comunidad del kernel no resuelven todos los problemas en torno al código generado por IA. ZDNET señala que la política puede no abordar el mayor desafío. Pero sí fija un principio central: la máquina puede asistir, el humano debe responder. En un ecosistema de software construido sobre la confianza a través del proceso, esa es la regla que más importa.
Por qué importa esta historia
- El kernel de Linux ha codificado una política formal para las contribuciones asistidas por IA.
- Los contribuyentes humanos siguen siendo legal y técnicamente responsables del código enviado.
- La atribución obligatoria con Assisted-by podría influir en otros modelos de gobernanza de código abierto.
Este artículo está basado en la cobertura de ZDNET. Leer el artículo original.




