Como acessar o DeepSeek R1 localmente ou via API: um guia completo

como acessar deepseek r1

principais destaques

1. Desempenho Avançado
Raciocínio Superior: Domina os padrões de matemática (AIME 2024, MATH-500) e codificação (Codeforces).
Plataforma: Treinamento aprimorado por MoE + RL com 671B parâmetros (37B ativos/token).

2. Acesso local via Ollama
Instale Ollama; Correr ollama run deepseek-r1:7b para baixar; Verifique com ollama list e interagir via terminal.

3. Desafios de implantação local
Hardware: Requer alta qualidade GPUs (por exemplo, H800) com 24 GB+ VRAM.
Memória: : Parâmetros 671B carregam lentamente; riscos de troca de disco.
instalação: Instalação manual de pesos, bibliotecas e configuração.
Modelos Destilados: Versões menores (por exemplo, Qwen-32B) reduzem recursos, mas sacrificam o desempenho.

4. Acesso API: Novita AI oferece uma API para DeepSeek R1. Basta se inscrever para um teste gratuito e usar a API com solicitações simples.

DeepSeek R1 é um modelo de IA de ponta conhecido por suas fortes capacidades de raciocínio, particularmente em matemática e codificação. Este artigo irá guiá-lo através das várias maneiras de acessar o DeepSeek R1, seja executando-o localmente ou usando uma API.

O que é DeepSeek R1?

  • Data de lançamento: janeiro 21, 2025
  • Escala do modelo:
  • Principais Recursos:
    • modelo Tamanho: 671B parâmetros (37B ativos/token)
    • Tokenizador: Tokenizador aprimorado com tags de autorreflexão
    • Os idiomas suportados: Multilíngue com adaptação cultural
    • multimodal: Somente texto
    • Janela de contexto: 128 mil fichas
    • Formatos de armazenamento: Suporte de quantização Q8/Q5
    • Plataforma: Mistura de especialistas (MoE) + pipeline de treinamento aprimorado por RL
    • Método de treinamento: Construído na base V3 com pipeline RL (SFT → RL → SFT → RL)
    • Dados de treinamento: Base V3 + dados de otimização RL

Comparação de Benchmark

O DeepSeek-R1 demonstra desempenho superior na maioria dos testes, particularmente em tarefas que exigem alta precisão e raciocínio complexo (como AIME 2024, Codeforces, MATH-500 e MMLU). Ele supera modelos como OpenAI-o1-1217 e OpenAI-o1-mini nessas áreas. No entanto, o DeepSeek-R1 mostra desempenho mais fraco em tarefas específicas como GPQA Diamond e SWE-bench Verified, indicando áreas potenciais para melhoria em comparação com modelos como Open AI O1.

Aplicações

  • Resolução de problemas matemáticos e geração de código.
  • Tarefas complexas de raciocínio lógico.
  • Auxiliar no diagnóstico de problemas complexos.
  • Analisando cenários de várias etapas.
  • Sintetizando insights de grandes conjuntos de dados.
  • Aplicações de atendimento ao cliente.

Como acessar o DeepSeek R1 localmente

Guia de instalação passo a passo

1. Instale o Ollama

  • Visite a página de produto do Site de Ollama, baixe e instale a versão para seu sistema operacional.

2. Baixe o modelo DeepSeek-R1

  • Abra seu terminal e execute (usando a versão do parâmetro 7B como exemplo): bashCopyollama run deepseek-r1:7b (Aguarde a conclusão do download; o tempo depende da velocidade da rede.)
ollama run deepseek-r1:7b

3. Verificar e executar

  • Verificar instalação:
ollama list  # Check if "deepseek-r1" appears in the list
  • Inicie o modelo:
ollama run deepseek-r1:7b

4. Exemplos de uso

  • Faça uma pergunta: bashCopiar>>> "Explain quantum computing in simple terms."
  • Gerar Código: bashCopiar>>> "Write a Python function to calculate the Fibonacci sequence."

Desafios na Implantação Local

1. Limitações de hardware

  • Altas demandas de recursos:
    • Requer alta qualidade GPUs/TPUs (por exemplo, H800) com VRAM/RAM substancial.
  • Restrições de memória:
    • Parâmetros 671B (37B ativados por token) levam a um carregamento lento.
    • VRAM/RAM insuficiente causa troca ou falha de disco.

2. Instalação e configuração

  • Instalação Complexa:
    • Etapas manuais: Baixe os pesos do modelo (Hugging Face), instale bibliotecas (por exemplo, transformers), configurar estruturas.
    • Requer conhecimento técnico para otimização.
  • Otimização de software:
    • Deve forçar as respostas a começar com <think>\n para garantir padrões de raciocínio adequados.

3. Gargalos de desempenho

  • Inferência lenta:
    • CPU/GPU limitações e largura de banda de memória reduzem a velocidade de processamento.
  • Despesas gerais de manutenção:
    • Atualizações manuais para novas versões de modelos acrescentam esforço contínuo.

4. Compensações com modelos destilados

  • Necessidades de recursos reduzidas:
    • Versões menores (por exemplo, Qwen-32B, Llama-70B) exigem menos hardware.
    • Exemplo: Qwen-32B supera OpenAI-o1-mini em benchmarks.
  • Desvantagens de desempenho:
    • Sacrifique a precisão ou a capacidade em comparação ao modelo 671B completo.
    • Pode ter dificuldades com tarefas complexas que exigem raciocínio profundo.
Para capacidade total: opte pelo acesso à API para evitar desafios de hardware e configuração.

Como acessar o DeepSeek R1 via Novita AI

Novita AI é uma plataforma de nuvem de IA que oferece aos desenvolvedores uma maneira fácil de implantar modelos de IA usando nossa API simples, ao mesmo tempo que fornece uma solução acessível e confiável GPU nuvem para construção e dimensionamento.

Etapa 1: faça login e acesse a biblioteca de modelos

Entre na sua conta e clique em Biblioteca de Modelos botão.

Faça login e acesse a biblioteca de modelos

Etapa 2: Escolha seu modelo

Navegue pelas opções disponíveis e selecione o modelo que melhor atende às suas necessidades.

escolher modelos

Etapa 3: comece seu teste gratuito

Comece seu teste gratuito para explorar os recursos do modelo selecionado.

startfreetrail em r1

Etapa 4: Obtenha sua chave de API

Para autenticar com a API, forneceremos a você uma nova chave de API. Entrando na página “Settings“, você pode copiar a chave de API conforme indicado na imagem.

obter chave de API

Etapa 5: instalar a API

Instale a API usando o gerenciador de pacotes específico para sua linguagem de programação.

instalar api

Após a instalação, importe as bibliotecas necessárias para o seu ambiente de desenvolvimento. Inicialize a API com sua chave de API para começar a interagir com Novita AI LLM. Este é um exemplo de uso da API de conclusões de bate-papo para usuários do Python.

from openai import OpenAI
  
client = OpenAI(
    base_url="https://api.novita.ai/v3/openai",
    api_key="<YOUR Novita AI API Key>",
)

model = "deepseek/deepseek_r1"
stream = True # or False
max_tokens = 2048
system_content = """Be a helpful assistant"""
temperature = 1
top_p = 1
min_p = 0
top_k = 50
presence_penalty = 0
frequency_penalty = 0
repetition_penalty = 1
response_format = { "type": "text" }

chat_completion_res = client.chat.completions.create(
    model=model,
    messages=[
        {
            "role": "system",
            "content": system_content,
        },
        {
            "role": "user",
            "content": "Hi there!",
        }
    ],
    stream=stream,
    max_tokens=max_tokens,
    temperature=temperature,
    top_p=top_p,
    presence_penalty=presence_penalty,
    frequency_penalty=frequency_penalty,
    response_format=response_format,
    extra_body={
      "top_k": top_k,
      "repetition_penalty": repetition_penalty,
      "min_p": min_p
    }
  )

if stream:
    for chunk in chat_completion_res:
        print(chunk.choices[0].delta.content or "", end="")
else:
    print(chat_completion_res.choices[0].message.content)
  
  

Após o registro, Novita AI oferece um crédito de US$ 0.5 para você começar!

Se os créditos gratuitos acabarem, você pode pagar para continuar usando-os.

Quais métodos são adequados para você?

  • pesquisadores: O acesso local é geralmente preferido para flexibilidade e controle sobre experimentos.
  • Desenvolvedores:
    • O acesso à API é adequado para criação de aplicativos e prototipagem rápida.
    • O acesso local é melhor para ajustes finos e fluxos de trabalho personalizados.
  • Negócios: O acesso à API é benéfico para integração rápida em serviços sem altos custos iniciais. A implantação local pode atender equipes com requisitos consistentes e capacidade de investir em infraestrutura.
  • Pequenas equipes/indivíduos: O acesso à API geralmente é mais prático devido aos menores custos iniciais.
  • Usuários com habilidades técnicas limitadas: O acesso à API é preferível, pois elimina a necessidade de conhecimento técnico profundo.

Concluindo, o DeepSeek R1 é um modelo impressionante com capacidades de raciocínio de última geração. Não importa se você escolhe executá-lo localmente ou usar uma API, você precisará considerar as compensações entre controle, custo e conveniência. Ao considerar cuidadosamente esses fatores e as recomendações específicas neste artigo, você pode escolher o melhor método de acesso para seus objetivos.

Perguntas frequentes

O DeepSeek R1 é melhor que o o1 da OpenAI?

O eepSeek R1 oferece desempenho comparável, especialmente em tarefas de raciocínio, com o benefício adicional de ser de código aberto e mais econômico.

Como posso ajustar o DeepSeek R1?

Como um modelo de código aberto, o DeepSeek R1 pode ser ajustado para tarefas específicas, desde que você tenha os recursos computacionais e os dados.

Como os modelos são treinados?

O DeepSeek R1 é significativamente mais barato que os modelos o1 da OpenAI.

Novita AI é a plataforma de nuvem completa que potencializa suas ambições de IA. APIs integradas, sem servidor, GPU Instância — as ferramentas econômicas que você precisa. Elimine a infraestrutura, comece de graça e transforme sua visão de IA em realidade.

Recomendar Leitura


Descubra mais da Novita

Inscreva-se para receber as últimas postagens enviadas para seu e-mail.

Deixe um comentário

Voltar ao Topo

Descubra mais da Novita

Inscreva-se agora para continuar lendo e ter acesso ao arquivo completo.

Ler Mais