O time por trás do Godot Engine tornou público um problema que vem crescendo em diversos projetos de código aberto: a enxurrada de contribuições geradas por ferramentas de IA. No caso do Godot, a situação chegou a um ponto em que mantenedores descrevem o cenário como “drenante e desmoralizante”.
O alerta ganhou força após publicações na rede social Bluesky, onde desenvolvedores relataram o aumento de pull requests (PRs) aparentemente criados por modelos de linguagem. Muitas dessas contribuições trazem descrições longas e excessivamente formais, alterações pouco coerentes e, em vários casos, código que sequer foi testado por quem o enviou.

Rémi Verschelde, mantenedor do projeto, afirmou que a equipe tem sido obrigada a questionar praticamente toda contribuição de novos participantes. A dúvida constante é se o código foi realmente compreendido pelo autor ou apenas gerado por um assistente automatizado. Esse processo, repetido dezenas de vezes por semana, consome tempo que poderia estar sendo dedicado a melhorias estruturais do motor.

O problema não é exclusivo do Godot. Outros projetos open source também relatam aumento de contribuições de baixa qualidade, muitas vezes motivadas pela tentativa de inflar perfis no GitHub com participações em repositórios populares. A lógica é simples: ter o nome associado a um grande projeto pode servir como vitrine profissional. Com ferramentas de IA capazes de produzir código rapidamente, a barreira de entrada para esse tipo de prática diminuiu drasticamente.
A ironia é que o GitHub, plataforma onde o Godot é hospedado, também vem promovendo fortemente recursos baseados em IA. Em discussões recentes, representantes da empresa reconheceram o aumento de contribuições problemáticas e disseram estar estudando soluções, como permissões mais granulares para abertura de PRs e ferramentas automatizadas de triagem.
Entre as ideias debatidas pela comunidade estão sistemas de “web of trust”, filas de revisão separadas para novos usuários e até ferramentas automatizadas para detectar e fechar PRs suspeitos, uma abordagem que alguns descrevem como “usar IA contra IA”. Há também quem defenda políticas mais rígidas ou mudanças de plataforma, embora isso envolva desafios técnicos e perda de benefícios como integração contínua gratuita e a grande visibilidade.
O dilema central é delicado: o Godot sempre se orgulhou de ser um projeto acolhedor, incentivando novos colaboradores a participar e aprender. Criar barreiras mais altas pode afastar contribuições legítimas, especialmente de iniciantes bem-intencionados. Por outro lado, manter o modelo atual pode se tornar insustentável diante do volume crescente de submissões problemáticas.
Como solução imediata, Verschelde apontou a necessidade de mais financiamento para contratar ou remunerar mais mantenedores. Revisar código é trabalho especializado e demorado, e a carga extra imposta por PRs de baixa qualidade amplia o desgaste da equipe.
Fique por dentro das principais novidades da semana sobre tecnologia e Linux: receba nossa newsletter!