O projeto LLVM, um dos pilares mais críticos do mundo do software livre, servindo de base para compiladores como Clang, Rust e Swift, oficializou sua política para o uso de ferramentas de IA, como os assistentes de código. A nova regra, intitulada “human in the loop” (humano no comando), estabelece um princípio claro: contribuidores podem usar qualquer ferramenta que desejarem, mas a responsabilidade final pelo código é inteiramente humana e intransferível.
A motivação para a política foi prática e urgente. Ao longo de 2025, os mantenedores do LLVM observaram um aumento significativo no volume de contribuições de baixa qualidade assistidas por modelos de linguagem. Essas contribuições, muitas vezes mal revisadas e enviadas automaticamente, extraíam tempo dos revisores sem agregar valor real. A política surge para combater essa “enxurrada de lixo” e proteger o tempo dos voluntários que sustentam o projeto.
Transparência, revisão e responsabilidade
A política do LLVM não proíbe o uso de IA. Em vez disso, ela estabelece condições rigorosas para garantir que a ferramenta seja um auxílio, e não um substituto, do desenvolvedor:
- Revisão humana obrigatória: o contribuidor deve ler e revisar todo o código ou texto gerado por IA antes de solicitar a revisão de outros membros do projeto. Não basta copiar e colar a saída de um chatbot;
- Responsabilidade total: o contribuidor é sempre considerado o autor final e é totalmente responsável pelo que envia. Ele deve estar preparado para responder a perguntas detalhadas sobre seu trabalho durante o processo de revisão;
- Transparência e rotulagem: contribuições que contenham quantidades substanciais de conteúdo gerado por ferramentas devem ser claramente identificadas. A sugestão é usar um trailer no commit como Assisted-by: [nome do assistente]. O objetivo é facilitar a revisão, não criar estigma;
- Proibição de agentes autônomos: a política baniu explicitamente agentes de IA que atuam autonomamente nos espaços do projeto (como o agente @claude do GitHub que poderia criar pull requests sozinho). Toda ação precisa de revisão e aprovação humana prévia;
- Proteção às oportunidades de aprendizado: O uso de IA para resolver “good first issues” (issues para iniciantes) é expressamente proibido. Essas tarefas existem para ajudar novos contribuidores a aprenderem o código-fonte; automatizá-las esvazia seu propósito educativo.
Evitando contribuições “extrativistas”
O cerne da filosofia do LLVM é evitar o que chamam de “contribuições extrativistas”. Este termo, inspirado no livro Working in Public de Nadia Eghbal, define uma contribuição cujo custo de revisão para os mantenedores é maior que o benefício que ela traz ao projeto.
A regra de ouro é: uma contribuição deve valer mais para o projeto do que o tempo gasto para revisá-la. Enviar o resultado bruto de um LLM para os mantenedores é uma forma de extrair trabalho de revisão deles sem oferecer valor proporcional em troca. A nova política visa equilibrar essa balança, protegendo o bem mais escasso de qualquer pessoa: o tempo e a energia.
Fique por dentro das principais novidades da semana sobre tecnologia e Linux: receba nossa newsletter!