Sådan installeres og bruger du DeepSeek-R1 lokalt på din computer, uanset om du bruger Ubuntu eller et hvilket som helst andet system

  • DeepSeek-R1 er en open source-model med avancerede ræsonneringsmuligheder.
  • Ollama forenkler installationen og styringen af ​​AI-modeller lokalt.
  • ChatBoxAI tilbyder en grafisk grænseflade til at interagere med modeller som DeepSeek.
  • Modellen kan nemt integreres i udviklingsprojekter med Python.

DeepSeek-R1 på Ubuntu

Kunstig intelligens fortsætter med at transformere vores verden, og mulighederne for at arbejde med avancerede sprogmodeller vokser med stormskridt. Det er dog ikke alle, der behøver at oprette forbindelse til cloud-tjenester eller stole på tredjeparter for at udforske disse teknologier. Et interessant og tilgængeligt alternativ er DeepSeek-R1, en AI-model, der giver brugerne mulighed for at køre den lokalt på beskedne computere. I denne artikel vil jeg forklare, hvordan du installerer DeepSeek og drager fuld fordel af dets muligheder.

DeepSeek-R1 er en open source AI-model som skiller sig ud for sin effektivitet og avancerede ræsonnement. Ved at køre det lokalt sparer du ikke kun tilbagevendende omkostninger, men du beskytter også dit privatliv og får fleksibilitet til at integrere det i tilpassede projekter. Selvom nogle modeller kræver kraftfuld hardware, tilbyder DeepSeek-R1 versioner, der er indstillet til forskellige ressourcer, fra grundlæggende computere til avancerede arbejdsstationer.

Hvad er DeepSeek, og hvorfor bruge det lokalt?

DeepSeek-R1 er en avanceret sprogmodel designet til komplekse opgaver såsom logisk ræsonnement, løsning af matematiske problemer og generering af kode. Dens største fordel er, at den er open source, hvilket betyder, at du kan installere og køre den på din egen computer uden at være afhængig af eksterne servere.

Nogle af dens bemærkelsesværdige funktioner inkluderer:

  • fleksibilitet: Du kan tilpasse modellen efter dine behov, fra lette versioner til avancerede konfigurationer.
  • Privacy: Al behandling foregår lokalt, så man undgår bekymringer om afsløring af følsomme data. Dette er måske den vigtigste pointe, da mange er bekymrede for, hvad virksomheder kan gøre med vores data.
  • Gemmer: Du behøver ikke at betale penge på abonnementer eller cloud-tjenester, hvilket gør det til en overkommelig mulighed for udviklere og virksomheder.

Krav til installation

Før du starter installationen, skal du sørge for at overholde følgende krav:

  • En computer med et Linux-, macOS- eller Windows-operativsystem (med understøttelse af WSL2 i sidstnævnte tilfælde).
  • Et minimum af 8 GB RAM, selvom det i det mindste anbefales 16 DK for optimal ydeevne.
  • Internetadgang for at downloade modellerne i første omgang.
  • Grundlæggende viden om terminal eller kommandolinje.

Derudover du skal installere et værktøj kaldet Ollama, som administrerer og kører DeepSeek-modeller lokalt.

Ollama installation

Ollama er en simpel løsning, der giver dig mulighed for at downloade og køre sprogmodeller som f.eks DeepSeek-R1. Følg disse trin for at installere det:

  1. På Linux eller macOS skal du åbne terminalen og køre følgende kommando for at installere Ollama - pakken krølle Det er naturligvis nødvendigt -:
curl -fsSL https://ollama.com/install.sh | sh
  1. På Windows-systemer skal du sørge for at have WSL2 aktiveret på forhånd og derefter følge de samme trin i Ubuntu-terminalen, som du konfigurerer i WSL.
  2. Bekræft, at Ollama er installeret korrekt ved at køre ollama --version. Hvis kommandoen returnerer et versionsnummer, er du klar til at gå videre.

DeepSeek-R1 download

Med Ollama installeret og kørende (ollama serve i terminalen, hvis den download, som vi forklarer senere mislykkes), kan du nu downloade den DeepSeek-model, der passer bedst til dine behov og hardware:

  • 1.5B parametre: Ideel til grundlæggende computere. Denne model fylder ca 1.1 DK.
  • 7B parametre: Anbefales til udstyr med GPU'er medium-høj. Dette fylder ca 4.7 DK.
  • 70B parametre: Til komplekse opgaver på udstyr med stor kapacitet hukommelse og kraftfuld GPU.

For at downloade standard 7B-modellen skal du køre denne kommando i terminalen:

Olama Run Deepseek-R1

Downloadtiden vil afhænge af din internethastighed og vil kun være nødvendig første gang, vi kører chatbotten. Når den er færdig, vil modellen være klar til brug fra kommandolinjen eller gennem en grafisk grænseflade.

Brug af DeepSeek med en grafisk grænseflade

Selvom du kan interagere med DeepSeek direkte fra terminalen, foretrækker mange brugere en grafisk grænseflade for nemheds skyld. I dette tilfælde kan du installere ChatBoxAI, et gratis program, der giver dig mulighed for at drage fordel af DeepSeek fra visuel form.

  • Download og installer ChatBoxAI fra dets officielle side.
  • Indstil appen til at bruge Ollama som modelleverandør:

I ChatBoxAI-indstillinger skal du vælge "Brug min egen API" og vælge den DeepSeek-model, du tidligere har downloadet. Hvis alt er konfigureret korrekt, vil du være i stand til at udføre forespørgsler og opgaver direkte fra den grafiske grænseflade.

DeepSeek integration i projekter

Hvis du er en udvikler, kan du integrere DeepSeek i dine projekter ved hjælp af dens API OpenAI-kompatibel. Her er et simpelt eksempel ved hjælp af Python:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") response = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Generer kode i Python for at beregne Fibonacci"}])

Dette script sender en forespørgsel til den lokale DeepSeek-model og returnerer resultatet i din terminal eller applikation.

DeepSeek-R1 AI-modellen repræsenterer en fremragende mulighed for dem, der leder efter en avanceret og økonomisk løsning. Med den lette adgang, som Ollama giver, fleksibiliteten i dets modeller og muligheden for at integrere i tilpassede projekter, åbner DeepSeek nye muligheder for udviklere, studerende og AI-eksperter. Med sit fokus på privatliv og ydeevne er det et værktøj, der fortjener at blive udforsket grundigt.


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.