Uma cláusula aparentemente esquecida nos termos de uso do Microsoft Copilot acabou gerando desconforto entre usuários. O documento afirmava, de forma direta, que o serviço de inteligência artificial era destinado “apenas a fins de entretenimento” e não deveria ser utilizado para decisões importantes.
A descoberta surgiu em discussões no Reddit e rapidamente levantou dúvidas sobre a confiabilidade da ferramenta, especialmente em um momento em que ela vem sendo integrada a fluxos de trabalho profissionais, sistemas operacionais e aplicativos corporativos.
O trecho que gerou a polêmica
O ponto mais sensível do documento não deixava margem para interpretação, dizendo que o Copilot pode cometer erros, não funcionar como esperado e deve ser usado por conta e risco do usuário. Somado à classificação como ferramenta de “entretenimento”, o texto contrasta com a forma como o Copilot vem sendo apresentado pela própria Microsoft, como um assistente produtivo, integrado ao sistema e capaz de auxiliar em tarefas complexas.

Para quem utiliza a ferramenta em contextos profissionais, a mensagem soa, no mínimo, contraditória.
A resposta da Microsoft
Diante da repercussão, a Microsoft afirmou que o trecho é legado de uma fase anterior do produto. Segundo a empresa, a linguagem remonta ao período em que o Copilot ainda era conhecido como Bing Chat, quando a tecnologia era tratada como experimental.
Naquele momento, a classificação como “entretenimento” funcionava como uma salvaguarda jurídica, reduzindo a responsabilidade da empresa diante de possíveis erros da IA.
Com a evolução do produto, que hoje está presente em ferramentas como Windows, Edge e Microsoft 365, essa definição deixou de refletir o uso real. A empresa afirma que em breve os termos serão atualizados.
Entre o jurídico e o produto real
De um lado, empresas promovem sistemas de IA como assistentes capazes de aumentar produtividade e apoiar decisões. De outro, mantém nos documentos legais uma postura cautelosa, reforçando limitações e riscos.
Esse descompasso não é exclusivo da Microsoft. Modelos de linguagem, por natureza, podem gerar respostas imprecisas, inconsistentes ou inadequadas, dependendo do contexto. Por isso, avisos desse tipo aparecem com frequência em termos de uso.
A diferença, neste caso, está no contraste entre o discurso público e a redação formal ainda em vigor.
Desde sua reformulação como Copilot, no fim de 2023, a ferramenta passou por uma expansão significativa. De um complemento de busca, tornou-se um elemento central na estratégia da Microsoft para inteligência artificial.
Hoje, o Copilot é capaz de gerar textos e documentos, auxiliar na criação de apresentações, interagir com o sistema operacional e, em alguns casos, automatizar tarefas em aplicativos corporativos. Essa mudança de escopo torna difícil sustentar a ideia de que o serviço seja apenas recreativo.
Mesmo que o texto tenha origem em uma fase anterior, sua permanência reforça questionamentos sobre como essas ferramentas devem ser interpretadas. Afinal, até que ponto um assistente de IA pode ser considerado confiável para tarefas críticas?
A própria Microsoft reconhece, ainda que indiretamente, que há limites. O aviso de que o sistema pode errar continua válido, independentemente da categoria atribuída ao serviço.
Fique por dentro das principais novidades da semana sobre tecnologia e Linux: receba nossa newsletter!