Voltar para o blog
Machine Learning

DeepInfra passa a integrar os Inference Providers da Hugging Face: mais opções e economia para desenvolvedores de IA

29 de abril de 2026
13:40
modelos de linguagemHugging FaceDeepInfrainference providersIA serverlessSDK Hugging Facecobrança por tokenintegração de IAmodelos de código aberto
DeepInfra passa a integrar os Inference Providers da Hugging Face: mais opções e economia para desenvolvedores de IA

A Hugging Face anunciou recentemente a integração da DeepInfra como um novo Inference Provider em sua plataforma. Essa novidade amplia o ecossistema de serviços para inferência de modelos de inteligência artificial diretamente nas páginas do Hub, trazendo vantagens práticas para desenvolvedores que buscam soluções eficientes e econômicas.

O que é a DeepInfra e como ela funciona na Hugging Face

A DeepInfra é uma plataforma de inferência de IA serverless que oferece uma das estruturas de preços mais competitivas do mercado, cobrando por token processado. Com um catálogo de mais de 100 modelos, a DeepInfra suporta diversos tipos de modelos, incluindo grandes modelos de linguagem (LLMs), geração de texto para imagem, texto para vídeo, embeddings, entre outros.

Imagem relacionada ao artigo de HuggingFace
Imagem de apoio da materia original.

Na integração inicial com a Hugging Face, a DeepInfra disponibiliza suporte para tarefas de conversação e geração de texto, permitindo o acesso a modelos de código aberto populares como DeepSeek V4, Kimi-K2.6 e GLM-5.1. Em breve, a plataforma deve ampliar esse suporte para outras tarefas, como geração de imagens e vídeos, além de embeddings.

Como usar a DeepInfra na Hugging Face

O uso da DeepInfra como provedor de inferência na Hugging Face pode ser feito de forma simples, tanto via interface web quanto por meio dos SDKs para Python e JavaScript disponibilizados pela Hugging Face. Algumas funcionalidades importantes disponíveis no painel de usuário incluem:

  • Configurar suas próprias chaves de API dos provedores com os quais você se cadastrou.
  • Definir a ordem de preferência dos provedores, o que afeta o widget e os trechos de código nas páginas dos modelos.

Existem dois modos para chamadas aos Inference Providers:

  1. Chave personalizada: as chamadas são feitas diretamente ao provedor de inferência usando sua própria chave de API.
  2. Roteado pela Hugging Face: nesse caso, não é necessária uma chave do provedor, e as cobranças são aplicadas diretamente na conta da Hugging Face.

Nas páginas dos modelos, os provedores de terceiros compatíveis são exibidos e ordenados conforme a preferência do usuário, facilitando a escolha do serviço desejado.

Imagem relacionada ao artigo de HuggingFace
Imagem de apoio da materia original.

Exemplos de uso via SDKs

A DeepInfra pode ser acessada facilmente pelos SDKs da Hugging Face, como huggingface_hub para Python e @huggingface/inference para JavaScript. A seguir, exemplos de chamadas autenticadas que são automaticamente roteadas para a DeepInfra:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://router.huggingface.co/v1",
    api_key=os.environ["HF_TOKEN"],
)

completion = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V4-Pro:deepinfra",
    messages=[{"role": "user", "content": "Write a Python function that returns the nth Fibonacci number using memoization."}]
)
print(completion.choices[0].message)
import { OpenAI } from "openai";

const client = new OpenAI({
  baseURL: "https://router.huggingface.co/v1",
  apiKey: process.env.HF_TOKEN,
});

const chatCompletion = await client.chat.completions.create({
  model: "deepseek-ai/DeepSeek-V4-Pro:deepinfra",
  messages: [
    { role: "user", content: "Write a Python function that returns the nth Fibonacci number using memoization." },
  ],
});

console.log(chatCompletion.choices[0].message);

Aspectos de cobrança e planos

Ao utilizar uma chave de API direta do provedor, a cobrança é feita pela DeepInfra conforme seu próprio sistema. Já no modo roteado pela Hugging Face, os custos são repassados diretamente ao usuário pela Hugging Face, sem markup adicional. A plataforma também oferece um plano PRO, que inclui créditos mensais de US$ 2 para uso em diversos provedores, além de recursos como ZeroGPU, modo de desenvolvimento para Spaces, limites 20 vezes maiores e outras vantagens.

Usuários gratuitos recebem uma cota pequena de uso para inferência, mas o upgrade para o plano PRO é recomendado para quem precisa de maior capacidade e recursos estendidos.

Feedback e próximos passos

A Hugging Face convida a comunidade a enviar feedback sobre a integração da DeepInfra por meio do espaço de discussões oficial: https://huggingface.co/spaces/huggingface/HuggingDiscussions/discussions/49.

Links úteis