principais destaques
1. Desempenho Avançado
Raciocínio Superior: Domina os padrões de matemática (AIME 2024, MATH-500) e codificação (Codeforces).
Plataforma: Treinamento aprimorado por MoE + RL com 671B parâmetros (37B ativos/token).
2. Acesso local via Ollama
Instale Ollama; Correr ollama run deepseek-r1:7b para baixar; Verifique com ollama list e interagir via terminal.
3. Desafios de implantação local
Hardware: Requer alta qualidade GPUs (por exemplo, H800) com 24 GB+ VRAM.
Memória: : Parâmetros 671B carregam lentamente; riscos de troca de disco.
instalação: Instalação manual de pesos, bibliotecas e configuração.
Modelos Destilados: Versões menores (por exemplo, Qwen-32B) reduzem recursos, mas sacrificam o desempenho.
4. Acesso API: Novita AI oferece uma API para DeepSeek R1. Basta se inscrever para um teste gratuito e usar a API com solicitações simples.
DeepSeek R1 é um modelo de IA de ponta conhecido por suas fortes capacidades de raciocínio, particularmente em matemática e codificação. Este artigo irá guiá-lo através das várias maneiras de acessar o DeepSeek R1, seja executando-o localmente ou usando uma API.
O que é DeepSeek R1?
- Data de lançamento: janeiro 21, 2025
- Escala do modelo:
- Principais Recursos:
- modelo Tamanho: 671B parâmetros (37B ativos/token)
- Tokenizador: Tokenizador aprimorado com tags de autorreflexão
- Os idiomas suportados: Multilíngue com adaptação cultural
- multimodal: Somente texto
- Janela de contexto: 128 mil fichas
- Formatos de armazenamento: Suporte de quantização Q8/Q5
- Plataforma: Mistura de especialistas (MoE) + pipeline de treinamento aprimorado por RL
- Método de treinamento: Construído na base V3 com pipeline RL (SFT → RL → SFT → RL)
- Dados de treinamento: Base V3 + dados de otimização RL
Comparação de Benchmark

O DeepSeek-R1 demonstra desempenho superior na maioria dos testes, particularmente em tarefas que exigem alta precisão e raciocínio complexo (como AIME 2024, Codeforces, MATH-500 e MMLU). Ele supera modelos como OpenAI-o1-1217 e OpenAI-o1-mini nessas áreas. No entanto, o DeepSeek-R1 mostra desempenho mais fraco em tarefas específicas como GPQA Diamond e SWE-bench Verified, indicando áreas potenciais para melhoria em comparação com modelos como Open AI O1.
Aplicações
- Resolução de problemas matemáticos e geração de código.
- Tarefas complexas de raciocínio lógico.
- Auxiliar no diagnóstico de problemas complexos.
- Analisando cenários de várias etapas.
- Sintetizando insights de grandes conjuntos de dados.
- Aplicações de atendimento ao cliente.
Como acessar o DeepSeek R1 localmente
Guia de instalação passo a passo
1. Instale o Ollama
- Visite a página de produto do Site de Ollama, baixe e instale a versão para seu sistema operacional.
2. Baixe o modelo DeepSeek-R1
- Abra seu terminal e execute (usando a versão do parâmetro 7B como exemplo): bashCopy
ollama run deepseek-r1:7b(Aguarde a conclusão do download; o tempo depende da velocidade da rede.)
ollama run deepseek-r1:7b
3. Verificar e executar
- Verificar instalação:
ollama list # Check if "deepseek-r1" appears in the list
- Inicie o modelo:
ollama run deepseek-r1:7b
4. Exemplos de uso
- Faça uma pergunta: bashCopiar
>>> "Explain quantum computing in simple terms." - Gerar Código: bashCopiar
>>> "Write a Python function to calculate the Fibonacci sequence."
Desafios na Implantação Local
1. Limitações de hardware
- Altas demandas de recursos:
- Requer alta qualidade GPUs/TPUs (por exemplo, H800) com VRAM/RAM substancial.
- Restrições de memória:
- Parâmetros 671B (37B ativados por token) levam a um carregamento lento.
- VRAM/RAM insuficiente causa troca ou falha de disco.
2. Instalação e configuração
- Instalação Complexa:
- Etapas manuais: Baixe os pesos do modelo (Hugging Face), instale bibliotecas (por exemplo,
transformers), configurar estruturas. - Requer conhecimento técnico para otimização.
- Etapas manuais: Baixe os pesos do modelo (Hugging Face), instale bibliotecas (por exemplo,
- Otimização de software:
- Deve forçar as respostas a começar com
<think>\npara garantir padrões de raciocínio adequados.
- Deve forçar as respostas a começar com
3. Gargalos de desempenho
- Inferência lenta:
- CPU/GPU limitações e largura de banda de memória reduzem a velocidade de processamento.
- Despesas gerais de manutenção:
- Atualizações manuais para novas versões de modelos acrescentam esforço contínuo.
4. Compensações com modelos destilados
- Necessidades de recursos reduzidas:
- Versões menores (por exemplo, Qwen-32B, Llama-70B) exigem menos hardware.
- Exemplo: Qwen-32B supera OpenAI-o1-mini em benchmarks.
- Desvantagens de desempenho:
- Sacrifique a precisão ou a capacidade em comparação ao modelo 671B completo.
- Pode ter dificuldades com tarefas complexas que exigem raciocínio profundo.
Para capacidade total: opte pelo acesso à API para evitar desafios de hardware e configuração.
Como acessar o DeepSeek R1 via Novita AI
Novita AI é uma plataforma de nuvem de IA que oferece aos desenvolvedores uma maneira fácil de implantar modelos de IA usando nossa API simples, ao mesmo tempo que fornece uma solução acessível e confiável GPU nuvem para construção e dimensionamento.
Etapa 1: faça login e acesse a biblioteca de modelos
Entre na sua conta e clique em Biblioteca de Modelos botão.

Etapa 2: Escolha seu modelo
Navegue pelas opções disponíveis e selecione o modelo que melhor atende às suas necessidades.

Etapa 3: comece seu teste gratuito
Comece seu teste gratuito para explorar os recursos do modelo selecionado.

Etapa 4: Obtenha sua chave de API
Para autenticar com a API, forneceremos a você uma nova chave de API. Entrando na página “Settings“, você pode copiar a chave de API conforme indicado na imagem.

Etapa 5: instalar a API
Instale a API usando o gerenciador de pacotes específico para sua linguagem de programação.

Após a instalação, importe as bibliotecas necessárias para o seu ambiente de desenvolvimento. Inicialize a API com sua chave de API para começar a interagir com Novita AI LLM. Este é um exemplo de uso da API de conclusões de bate-papo para usuários do Python.
from openai import OpenAI
client = OpenAI(
base_url="https://api.novita.ai/v3/openai",
api_key="<YOUR Novita AI API Key>",
)
model = "deepseek/deepseek_r1"
stream = True # or False
max_tokens = 2048
system_content = """Be a helpful assistant"""
temperature = 1
top_p = 1
min_p = 0
top_k = 50
presence_penalty = 0
frequency_penalty = 0
repetition_penalty = 1
response_format = { "type": "text" }
chat_completion_res = client.chat.completions.create(
model=model,
messages=[
{
"role": "system",
"content": system_content,
},
{
"role": "user",
"content": "Hi there!",
}
],
stream=stream,
max_tokens=max_tokens,
temperature=temperature,
top_p=top_p,
presence_penalty=presence_penalty,
frequency_penalty=frequency_penalty,
response_format=response_format,
extra_body={
"top_k": top_k,
"repetition_penalty": repetition_penalty,
"min_p": min_p
}
)
if stream:
for chunk in chat_completion_res:
print(chunk.choices[0].delta.content or "", end="")
else:
print(chat_completion_res.choices[0].message.content)
Após o registro, Novita AI oferece um crédito de US$ 0.5 para você começar!
Se os créditos gratuitos acabarem, você pode pagar para continuar usando-os.
Quais métodos são adequados para você?
- pesquisadores: O acesso local é geralmente preferido para flexibilidade e controle sobre experimentos.
- Desenvolvedores:
- O acesso à API é adequado para criação de aplicativos e prototipagem rápida.
- O acesso local é melhor para ajustes finos e fluxos de trabalho personalizados.
- Negócios: O acesso à API é benéfico para integração rápida em serviços sem altos custos iniciais. A implantação local pode atender equipes com requisitos consistentes e capacidade de investir em infraestrutura.
- Pequenas equipes/indivíduos: O acesso à API geralmente é mais prático devido aos menores custos iniciais.
- Usuários com habilidades técnicas limitadas: O acesso à API é preferível, pois elimina a necessidade de conhecimento técnico profundo.
Concluindo, o DeepSeek R1 é um modelo impressionante com capacidades de raciocínio de última geração. Não importa se você escolhe executá-lo localmente ou usar uma API, você precisará considerar as compensações entre controle, custo e conveniência. Ao considerar cuidadosamente esses fatores e as recomendações específicas neste artigo, você pode escolher o melhor método de acesso para seus objetivos.
Perguntas frequentes
O eepSeek R1 oferece desempenho comparável, especialmente em tarefas de raciocínio, com o benefício adicional de ser de código aberto e mais econômico.
Como um modelo de código aberto, o DeepSeek R1 pode ser ajustado para tarefas específicas, desde que você tenha os recursos computacionais e os dados.
O DeepSeek R1 é significativamente mais barato que os modelos o1 da OpenAI.
Novita AI é a plataforma de nuvem completa que potencializa suas ambições de IA. APIs integradas, sem servidor, GPU Instância — as ferramentas econômicas que você precisa. Elimine a infraestrutura, comece de graça e transforme sua visão de IA em realidade.
Recomendar Leitura
- DeepSeek V3: Avançando modelos de código de código aberto, agora disponível em Novita AI
- Deepseek v3 vs Llama 3.3 70b: Tarefas de Linguagem vs Código e Matemática
- Llama 3.2 3B vs DeepSeek V3: Comparando eficiência e desempenho.
Descubra mais da Novita
Inscreva-se para receber as últimas postagens enviadas para seu e-mail.





