OpenAI • LLM
GPT-5-Nano is the smallest and fastest variant in the GPT-5 system, optimized for developer tools, rapid interactions, and ultra-low latency environments. While limited in reasoning depth compared to its larger...
Context Window
400K tokens
Preço Input/1M
$0.05
Preço Output/1M
$0.40
Parâmetros
—
Resultados do OpenAI: GPT-5 Nano nos principais benchmarks de avaliação de modelos de IA. Scores mais altos indicam melhor performance.
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| LiveCodeBench | 76.3 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| LiveBench Coding | 62.4 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
| AA Coding Index | 22.9 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| LiveBench Data Analysis | 43.4 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| LiveBench Language | 46.8 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| AA Math Index | 78.3 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| AIME 2025 | 78.3 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| LiveBench Math | 68.4 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| LiveBench Global | 48.6 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
| AA Intelligence Index | 25.9 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| Benchmark | Score | Máximo | Metodologia |
|---|---|---|---|
| MMLU Pro | 77.2 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| GPQA Diamond | 67.0 | 100.0 | Artificial Analysis official API — Intelligence/Coding/Math indices |
| LiveBench Reasoning | 40.3 | 100.0 | Contamination-free benchmark with objective ground-truth answers |
O OpenAI: GPT-5 Nano é um modelo de inteligência artificial desenvolvido pela OpenAI, classificado como modelo de linguagem (LLM). É um modelo multimodal, capaz de processar texto, imagens e potencialmente outros tipos de mídia. Como modelo proprietário, está disponível via API cloud da OpenAI. Com uma janela de contexto de 400K tokens, é adequado para processamento de documentos longos como contratos, livros e bases de código completas.
O OpenAI: GPT-5 Nano é cobrado por uso, com preço de US$ 0.05/1M tokens de input e US$ 0.4/1M tokens de output. Para contextualizar: 1 milhão de tokens equivale a aproximadamente 750 mil palavras, ou cerca de 10 livros de tamanho médio. Com esse preço agressivo, é uma das opções mais econômicas do mercado, ideal para aplicações de alto volume como chatbots, análise de documentos em massa e automações.
Para o mercado brasileiro, é importante considerar o IOF de 6,38% sobre transações internacionais e a variação cambial do dólar. Com o câmbio atual, o custo do OpenAI: GPT-5 Nano em reais fica em torno de R$ 0.31/1M tokens de input (estimativa com IOF incluso).
O OpenAI: GPT-5 Nano foi avaliado em 13 benchmarks diferentes, cobrindo categorias como Coding, Data Analysis, Language, Math, overall, Reasoning. Os resultados mostram performance moderada nas avaliações disponíveis.
É importante notar que benchmarks medem aspectos específicos e não capturam toda a experiência de uso. Fatores como qualidade da resposta em português, aderência a instruções complexas e comportamento em conversas longas variam significativamente entre modelos e nem sempre são refletidos nos scores padrão.
O OpenAI: GPT-5 Nano é adequado para diversas aplicações de inteligência artificial: análise de documentos longos (contratos, processos jurídicos, bases de código), automação com tool calling (integração com APIs, banco de dados, sistemas externos), análise de imagens e documentos visuais (OCR, diagramas, screenshots), processamento multimodal combinando texto e imagens, chatbots de alto volume e atendimento automatizado, raciocínio complexo, resolução de problemas matemáticos e análise lógica, geração de texto, resumo, tradução e assistência geral.
No ecossistema de modelos de IA em 2026, o OpenAI: GPT-5 Nano compete diretamente com modelos de nível similar. Os principais concorrentes incluem Claude (Anthropic), Gemini (Google) e modelos open source como Llama (Meta) e Qwen (Alibaba). A escolha entre modelos depende do caso de uso específico, orçamento, requisitos de latência e necessidade de funcionalidades como multimodalidade e tool calling.
Para uma comparação detalhada lado a lado, utilize nossa ferramenta de comparação ou consulte o ranking geral de modelos.
Para usuários brasileiros, a performance em português é um critério fundamental na escolha de um modelo de IA. A maioria dos benchmarks internacionais testa apenas em inglês, o que pode mascarar diferenças significativas na qualidade de resposta em outros idiomas. O OpenAI: GPT-5 Nano oferece suporte multimodal que funciona em múltiplos idiomas, mas a qualidade em português brasileiro pode variar dependendo da tarefa específica.
Recomendamos testar o modelo com prompts representativos do seu caso de uso em português antes de tomar uma decisão. O SWEN.AI está desenvolvendo um benchmark proprietário em PT-BR com tarefas aderentes ao mercado brasileiro para fornecer comparações mais precisas.
GPT-5-Nano is the smallest and fastest variant in the GPT-5 system, optimized for developer tools, rapid interactions, and ultra-low latency environments. While limited in reasoning depth compared to its larger...
O OpenAI: GPT-5 Nano custa US$ 0.05/1M tokens de input e US$ 0.4/1M tokens de output. Para uso intensivo (ex.: chatbot de WhatsApp com 100k mensagens/mês), o custo pode variar de R$ 50 a R$ 5.000 dependendo do volume.
A maioria dos modelos de IA modernos, incluindo o OpenAI: GPT-5 Nano, suporta português brasileiro. No entanto, a qualidade pode variar — modelos como Claude e Gemini tendem a ter melhor performance em PT-BR. Recomendamos testar com prompts específicos do seu caso de uso.
Nos benchmarks disponíveis, o OpenAI: GPT-5 Nano obteve scores como: LiveCodeBench: 76.3/100, LiveBench Coding: 62.39/100, AA Coding Index: 22.9/100. Consulte a tabela completa acima para comparação detalhada.
Não, o OpenAI: GPT-5 Nano é um modelo proprietário da OpenAI. Ele está disponível via API cloud. Para alternativas open source, confira nosso ranking de modelos open source.
Última atualização: 26 de abril de 2026 • Ver metodologia →