DeepSeek e Qwen agora estão disponíveis como Snaps no Ubuntu

DeepSeek e Qwen agora estão disponíveis como Snaps no Ubuntu

A Canonical acaba de dar um passo importante para tornar o uso de modelos de inteligência artificial locais mais acessível. A empresa lançou os primeiros “snaps de inferência otimizados”, pacotes prontos para instalar e rodar modelos de linguagem e visão computacional diretamente no Ubuntu, com ajustes automáticos para cada tipo de hardware.

Entre os inicialmente disponíveis estão o DeepSeek R1 e o Qwen 2.5 VL, dois modelos open source que podem ser instalados com um simples comando no terminal, sem a necessidade de configurar dependências ou ambientes complexos.

O que são DeepSeek R1 e Qwen 2.5 VL

O DeepSeek R1 é um modelo de raciocínio da empresa chinesa DeepSeek, voltado para tarefas complexas de lógica, matemática e programação. Já o Qwen 2.5 VL, desenvolvido pela Alibaba Cloud, é um modelo multimodal de visão e linguagem, capaz de interpretar texto, imagens e vídeo. Ambos são open source, executam localmente e não exigem conexão com a nuvem nem assinatura de API, significando total independência e privacidade para quem os utiliza.

Com os novos snaps, basta digitar no terminal:

sudo snap install deepseek-r1 --beta

ou

sudo snap install qwen-vl --beta

E o Ubuntu faz o resto, instalando automaticamente a versão otimizada para o processador do seu computador.

Cada modelo de IA possui diversas variações, tamanhos, quantizações, arquiteturas e engines otimizadas para diferentes chips (como Intel, AMD ou Ampere ARM). Tradicionalmente, encontrar e configurar a versão ideal para o seu hardware exigia pesquisa técnica, download manual e ajustes finos de desempenho. Agora, o Ubuntu faz isso por você: o sistema detecta o processador e escolhe a melhor combinação possível, garantindo um bom desempenho e menor consumo de recursos.

Segundo Jon Seager, VP de Engenharia da Canonical:

“Estamos tornando modelos de IA otimizados acessíveis a todos. Quando ativados pelo usuário, eles são integrados profundamente ao nível do hardware.”

A iniciativa é fruto de uma parceria com fabricantes de chips como Intel e Ampere, que colaboraram para criar versões ajustadas ao desempenho e eficiência energética de cada arquitetura.

Jeff Wittich, diretor de produto da Ampere, resume a vantagem:

“Isso permite que as empresas implantem e escalem seus modelos de IA preferidos rapidamente, com desempenho otimizado de fábrica em sistemas Ampere com Ubuntu.”

Ubuntu e a nova geração de IA local

Esses snaps marcam a primeira vez que modelos de linguagem (LLM) aparecem oficialmente na Snap Store. Eles se juntam a outros componentes já disponíveis para IA no Ubuntu, como o driver NPU da Intel e os plugins OpenVINO, que aceleram inferências em hardware compatível.

Mas não se trata de o Ubuntu “virar um sistema com IA integrada”. Os modelos não vêm pré-instalados, nem fazem parte da interface do sistema. A Canonical deixa claro que o foco é oferecer ferramentas para desenvolvedores, e não colocar “botões mágicos de IA” na área de trabalho. A ideia é simplificar a vida de quem quer integrar capacidades de IA em aplicações, servidores ou dispositivos de borda, com o menor atrito possível.

Fique por dentro das principais novidades da semana sobre tecnologia e Linux: receba nossa newsletter em sua caixa de entrada.