Quanto custa a API da OpenAI?
Leia esta dica para saber quanto custa a API da OpenAI e o detalhamento de custos para GPT-3.5, GPT-4 e GPT-4o. A OpenAI oferece diferentes planos de preços para sua API, com valores variando de acordo com o uso e as funcionalidades desejadas. É importante analisar suas necessidades específicas e comparar os custos de cada plano antes de tomar uma decisão.
Por exemplo, se você está desenvolvendo um chatbot simples, pode optar pelo plano básico da API da OpenAI para economizar custos. No entanto, se você precisa de uma solução mais avançada para gerar textos mais complexos ou realizar tarefas mais sofisticadas, pode ser necessário investir em um plano premium com funcionalidades adicionais.
Em que se baseia o preço da API para modelos GPT?
O preço da API da OpenAI é determinado pelo número de tokens que você usa. Isso naturalmente levanta a questão: “O que exatamente é um token?” De acordo com a documentação de preços da OpenAI, é um “pedaço de uma palavra usada para processamento de linguagem natural”. Normalmente, um token tem aproximadamente 4 caracteres ou 0,75 palavras.
Para fornecer um entendimento mais claro, vamos considerar um exemplo. A frase “Olá, bem-vindo ao nosso site!” consiste em 7 tokens. Este modelo de precificação baseado em tokens ajuda a medir e cobrar precisamente o uso da API.
No entanto, há mais alguns pontos para você considerar estes preços: a diferença entre preços de entrada e saída e a janela de contexto do modelo GPT.
Confira quanto custa a API da OpenAI
Aqui está uma tabela resumida com os preços da API da OpenAI (valores aproximados até o começo de 2024 e pode mudar conforme as políticas de preços da empresa):
Modelo | Preço (Entrada) | Preço (Saída) | Descrição |
---|---|---|---|
GPT-4 (8k tokens) | $0,03 por 1.000 tokens | $0,06 por 1.000 tokens | Ideal para tarefas complexas. |
GPT-4 (32k tokens) | $0,06 por 1.000 tokens | $0,12 por 1.000 tokens | Processa grandes volumes de texto. |
GPT-3.5 Turbo | $0,0015 por 1.000 tokens | $0,002 por 1.000 tokens | Econômico para interações rápidas. |
Codex (code-davinci-002) | $0,02 por 1.000 tokens | $0,02 por 1.000 tokens | Especializado em programação e código. |
Embeddings | $0,0004 por 1.000 tokens | N/A | Gera representações semânticas de texto. |
Notas sobre os preços da API OnpenAI:
- Tokens: Um token é uma pequena unidade de texto, semelhante a uma palavra ou parte dela.
- GPT-4 (8k): Suporta até 8.000 tokens por interação (entrada + saída).
- GPT-4 (32k): Suporta até 32.000 tokens, ideal para textos longos.
- GPT-3.5 Turbo: Uma opção mais acessível para tarefas gerais.
- Embeddings: Usado para busca semântica e similaridade de textos.
Entenda direito o que é um token
Um token não é a mesma coisa que uma palavra. Quando você passa uma sequência de texto para uma API OpenAI (como a API Chat Completions), a sequência de texto se quebra em tokens. Você pode usar a seguinte ferramenta que a OpenAI fornece para ver como uma sequência de texto é convertida em tokens:
Por exemplo, inserir a frase “comigo está tudo bem sim!” resulta em 6 tokens. Observe que o ponto de exclamação (“!”) conta como seu próprio token.
O que significa janela de contexto?
A janela de contexto de um Generative Pre-trained Transformer se refere ao número de tokens precedentes que o modelo considera ao gerar ou prever o próximo token em uma sequência. Em termos mais simples, é o intervalo de texto ou tokens que o modelo “analisa” para entender o contexto do token atual que está sendo processado.
GPT-3.5 Turbo, uma versão aprimorada do Chat GPT-3.5, normalmente mantém uma janela de contexto similar ao GPT-3.5. Ele pode manipular sequências de até 2048 tokens, permitindo capturar dependências de longo alcance em texto para saídas mais coerentes e contextualmente ricas.
O GPT-4 suporta sequências de até 4096 tokens de comprimento, expandindo significativamente seu alcance em comparação a modelos anteriores como GPT-3.5 e GPT-3.5 Turbo. Isso permite que o GPT-4 processe textos e dependências ainda mais longos, aprimorando sua capacidade para tarefas complexas de processamento de linguagem natural e gerando saídas mais matizadas.
GPT-4o, otimizado para eficiência e desempenho aprimorado, normalmente mantém um tamanho de janela de contexto similar ao GPT-4. Ele equilibra eficiência computacional com desempenho, garantindo manuseio efetivo de sequências de texto substanciais enquanto otimiza o uso de recursos para vários aplicativos.
Conclusão
O objetivo desta postagem do blog era esclarecer como o preço do OpenAI funciona e como você pode manter seus custos de API do OpenAI baixos. Para abordar essa questão, tivemos que mergulhar no tópico de tokens porque, quando você usa modelos ChatGPT, ele cobra pelo token. Você aprendeu como aproveitar o usage
campo para determinar o número real de tokens usados para uma solicitação de API do OpenAI. Você também foi avisado de que o número de tokens cresce rapidamente quando você se envolve em uma conversa com o ChatGPT porque todas as mensagens anteriores devem ser enviadas novamente.