Texto, imagem, vídeo e como rodar modelos localmente no seu PC. Todas gratuitas ou com créditos diários generosos.
| RAM | Modelos recomendados | Velocidade |
|---|---|---|
| 8 GB | Llama 3.2 3B, Phi-3 Mini, Gemma 2B | Moderada (CPU) |
| 16 GB | Llama 3.1 8B, Mistral 7B, Qwen2.5 7B | Boa |
| 32 GB+ | Llama 3.1 70B, DeepSeek 14B, Qwen3 32B | Excelente |
/byeSem Docker? Pode baixar o Open WebUI como app direto em openwebui.com — não precisa de terminal.
ollama pull nome-do-modelo para baixar sem abrir ainda| Modelo | Tamanho | RAM mín. | Melhor para | Qualidade |
|---|---|---|---|---|
| llama3.2 | ~2 GB | 8 GB | Conversas gerais, rápido | ★★★☆☆ |
| llama3.1:8b | ~4.7 GB | 8 GB | Uso geral, equilíbrio | ★★★★☆ |
| mistral | ~4 GB | 8 GB | Texto, instrução, código | ★★★★☆ |
| qwen2.5:7b | ~4.5 GB | 8 GB | Código, multilíngue | ★★★★☆ |
| phi4 | ~9 GB | 16 GB | Raciocínio, matemática | ★★★★★ |
| deepseek-r1:14b | ~9 GB | 16 GB | Raciocínio avançado | ★★★★★ |
SUA_CHAVE pela sua API key::free no ID — sem custo por tokenDica: Os modelos :free do OpenRouter têm limites de requisições por minuto, mas são perfeitos para uso pessoal e desenvolvimento. Para ver todos os modelos gratuitos disponíveis, acesse openrouter.ai/models?q=:free