
A inteligência artificial parece ter uma memória impressionante, mas ela não funciona como a humana. Em vez de “lembrar” tudo o que já foi dito, os modelos operam dentro de um limite chamado janela de contexto. É por isso que IA às vezes entende tudo perfeitamente e em outros momentos parece “esquecer” informações importantes.
- Prompt, tokens, LLM e mais: 10 termos de IA essenciais para o seu dia a dia
- AGI | O que é inteligência artificial geral?
A seguir, tire suas dúvidas sobre:
- O que é janela de contexto?
- Como funciona a janela de contexto?
- O que é mecanismo de atenção?
- Por que a IA “esquece” as coisas?
- Qual é a janela de contexto das IAs?
O que é janela de contexto?
A janela de contexto é a quantidade máxima de informação que um modelo de IA consegue analisar e manter ativa ao mesmo tempo para gerar uma resposta.
-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-
É como se fosse memória de curto prazo da IA. Tudo o que está dentro dessa janela pode ser usado para interpretar perguntas, manter coerência e responder com precisão. O que fica fora dela deixa de existir para o modelo naquele momento.
Essa janela de contexto pode incluir mensagens anteriores da conversa, documentos enviados, trechos de código, imagens, transcrições de áudio, quadros de vídeo, instruções internas do sistema e outras informações trocadas com a IA em determinado período.
Quanto maior a janela de contexto, maior a capacidade da IA de lidar com conversas longas, arquivos extensos e análises mais complexas.
Como funciona a janela de contexto?
A janela de contexto funciona como a “memória de curto prazo” da inteligência artificial. É dentro desse espaço que o modelo reúne tudo o que precisa considerar para gerar uma resposta.
Para lidar com esses dados, a IA transforma tudo em tokens, pequenas unidades que representam partes do conteúdo. Cada token ocupa uma parte da janela de contexto, que vai sendo preenchida à medida que novas informações chegam. Quando esse espaço atinge o limite, o sistema descarta os trechos mais antigos para conseguir processar as entradas mais recentes.
O que é mecanismo de atenção?
O mecanismo de atenção é o que permite à IA decidir no que prestar atenção dentro da janela de contexto.
Imagine uma sala cheia de post-its colados na parede. O mecanismo de atenção seria um sistema de holofotes que iluminam os post-its mais relevantes para responder à pergunta atual.
Tecnicamente, ele calcula relações entre todos os tokens disponíveis e atribui “pesos” de importância a cada um. Assim, o modelo consegue conectar ideias distantes no texto, entender referências (“isso”, “aquilo”, “como dito antes”) e manter coerência em respostas longas.
Dessa forma, o tamanho da janela de contexto define quantos post-its podem ficar na parede ao mesmo tempo. Já o mecanismo de atenção decide quais deles realmente importam naquele momento.
Por que a IA “esquece” as coisas?
Quando uma IA parece esquecer algo, na maioria das vezes ela não errou, é por que aquela informação simplesmente saiu da janela de contexto.
É como uma conversa humana muito longa. Depois de um tempo, os detalhes do começo se perdem. Com a IA, isso acontece de forma literal. Quando o limite é atingido, as informações antigas são descartadas para dar espaço às novas.
Mesmo modelos com janelas enormes enfrentam desafios. Um deles é o chamado “lost in the middle” (“perdido no meio”), que significa que a IA tende a prestar mais atenção no começo e no fim de textos muito longos, enquanto informações importantes no meio podem ser esquecidas.
Qual é a janela de contexto das IAs?
A janela de contexto não é igual para todas as plataformas de inteligência artificial. Ela varia de acordo com o modelo e a plataforma, já que cada empresa define limites próprios de quanto conteúdo sua IA consegue processar ao mesmo tempo.
A janela de contexto do ChatGPT varia conforme o plano: 16 mil tokens no Free, 32 mil nos planos Plus e Business e 128 mil nos planos Pro e Enterprise. Em tarefas com raciocínio avançado (GPT-5.2 Thinking), ela é expandida para 196 mil tokens em todos os planos, inclusive no gratuito.
No Gemini, a janela de contexto também muda de acordo com a assinatura. No básico, o limite é de cerca de 32 mil tokens e o Google AI Plus aumenta para 128 mil tokens. Já no Google AI Pro e Ultra, alcança até 1 milhão de tokens.
No caso do Claude, a janela de contexto nos planos pagos é de 200 mil tokens e usuários do plano Enterprise contam com 500 mil tokens ao usar o Claude Sonnet 4.5. Já na assinatura gratuita, o tamanho da janela e os limites de uso variam conforme a demanda do serviço.
Ao utilizar via API, esses valores também variam de acordo com o modelo escolhido.
Confira outros conteúdos do Canaltech:
- O que é um prompt de comando?
- O que é LLM? | Large Language Model
- O que é IA multimodal? Entenda o seu funcionamento
VÍDEO: Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?
Leia a matéria no Canaltech.