Tilbage til hovedsiden

DeepSeek: Et nyt kapitel i kunstig intelligens

DeepSeek er et sandt fænomen. Bare få dage efter udgivelsen steg den kinesiske chatbot til tops over de mest downloadede apps i Apple App Store og detroniserede ChatGPT. For mange var det et chok, at en relativt ukendt virksomhed med minimale investeringer - dens budget er cirka 14 gange mindre end OpenAI's - formåede at overhale den ubestridte markedsleder, selv om det kun var midlertidigt.

Historien om DeepSeek

DeepSeek blev grundlagt af den kinesiske milliardær Liang Wengfeng. Liang er uddannet på Zhejiang University og fik en bachelorgrad i elektronisk informationsteknologi i 2007 og en kandidatgrad i informations- og kommunikationsteknologi i 2010.

I 2008 dannede Liang et team med sine klassekammerater på universitetet for at samle data om finansmarkederne og udforske kvantitativ handel ved hjælp af maskinlæring. I februar 2016 var Liang og to andre studiekammerater med til at grundlægge High-Flyer, en virksomhed med fokus på at udnytte kunstig intelligens til handelsalgoritmer (foretage investeringer, spotte mønstre i aktiekurser osv.).

I april 2023 etablerede High-Flyer et laboratorium for kunstig generel intelligens, der var dedikeret til at udvikle værktøjer til kunstig intelligens, som ikke skulle bruges til aktiehandel. I maj 2023 blev dette laboratorium en uafhængig enhed ved navn DeepSeek.

I januar 2025 skabte DeepSeek overskrifter med udgivelsen af DeepSeek-R1, en 671-milliarder-parameter open source ræsonnerende KI-model. Modellen blev hurtigt populær og blev den første gratis app på den amerikanske Apple App Store.

Liang Wengfeng

Liang Wengfeng

Vigtige milepæle:

  • 2016. High-Flyer-fundamentet. Denne virksomhed, der oprindeligt fokuserede på KI-handelsalgoritmer, lagde grunden til DeepSeek.
  • 2023. Grundlæggelse af DeepSeek. DeepSeek blev grundlagt i april som et laboratorium for kunstig generel intelligens under High-Flyer og blev uafhængig i maj.
  • 2025. Udgivelse af DeepSeek-R1. Den blev hurtigt en verdensomspændende sensation og toppede hitlisterne som en af de mest populære chatbots.

DeepSeeks rejse til toppen har været alt andet end let. I begyndelsen var virksomheden afhængig af Nvidia A100-grafikchips, som senere blev forbudt at eksportere til Kina af den amerikanske regering. Udviklerne skiftede derefter til de mindre kraftfulde H800-chips, men de blev også begrænset kort tid efter. På trods af disse udfordringer lykkedes det DeepSeek at skabe sin avancerede R1-model ved hjælp af H800-chips til en værdi af kun 5,6 millioner dollars. For at sætte det i perspektiv anslås træning af GPT-4 at koste mellem 50 og 100 millioner dollars.

»Vores største udfordring har aldrig været penge, det er embargoen på avancerede chips,« har Liang sagt.

DeepSeek R1

DeepSeeks funktioner og nøgleteknologier

I modsætning til mange andre populære chatbots er DeepSeek-modellerne open source, hvilket betyder, at brugerne kan udforske, hvordan teknologien fungerer under motorhjelmen. Denne gennemsigtighed skaber tillid, da den sikrer, at chatbotten ikke er en mystisk »sort boks« - dens adfærd kan undersøges og forstås af fællesskabet.

Open source-komponenter gør det muligt for udviklere og forskere at bidrage med forbedringer, rette fejl eller tilpasse teknologien til specifikke behov. Derfor har open source-projekter en tendens til at udvikle sig hurtigt på grund af fællesskabets bidrag. Du vil se nye funktioner, forbedringer og applikationer dukke op hurtigere end med proprietære systemer.

Nogle af de vigtige tekniske løsninger, der får DeepSeek-modeller til at fungere så effektivt som muligt:

  • MoE (blanding af eksperter)
  • MLA (latent opmærksomhed i flere hoveder)
  • MTP (forudsigelse af flere tal)
MoE (Mixture of Experts)

Mixture of Experts (MoE) er en maskinlæringsteknik, der indebærer at kombinere forudsigelserne fra flere specialiserede modeller (»eksperterne«) for at forbedre chatbottens samlede ydeevne.

Se her, hvordan det fungerer i DeepSeek:

  • DeepSeek har sandsynligvis en stor pulje på 256 specialiserede neurale netværk (eksperter). Hver ekspert er en mindre model, der er trænet til at håndtere specifikke mønstre eller funktioner i dataene. I naturlig sprogbehandling kan en ekspert f.eks. være specialiseret i syntaks, en anden i semantik, en tredje i domænespecifik viden osv.
  • Et gating-netværk beslutter, hvilke eksperter der skal aktiveres for hvert input-token. Det evaluerer inputtet og tildeler eksperterne vægte og vælger de 8 eksperter, der er mest relevante for det aktuelle token. Dette sikrer, at kun en lille delmængde af de samlede eksperter bruges på et givet tidspunkt.
  • I stedet for at køre alle 256 eksperter for hvert token (hvilket ville være beregningsmæssigt dyrt), er det kun de 8 bedste eksperter, der aktiveres. Dette reducerer beregningsomkostningerne drastisk, mens modellens fulde kapacitet stadig udnyttes.

Ved kun at aktivere en lille delmængde af eksperterne opnår DeepSeek ressourceeffektivitet. Modellen kan skaleres til en meget stor størrelse (med hensyn til parametre) uden en proportional stigning i beregningen.

MLA (Multi-head Latent Attention)

Multi-head Latent Attention (MLA) er en kraftfuld mekanisme, der kombinerer styrkerne ved multihead-opmærksomhed og latent rumrepræsentation for at forbedre effektiviteten og ydeevnen.

Sådan fungerer det i DeepSeek:

  • I standard multihead-opmærksomhed opdeles inputtet i flere »hoveder«, som hver især lærer at fokusere på forskellige aspekter af dataene.
  • Inputdataene (f.eks. tekst, billeder eller andre strukturerede data) kodes først til en højdimensionel repræsentation.
  • Input-repræsentationen projiceres ind i et lavere-dimensionelt latent rum ved hjælp af en indlært transformation (f.eks. et neuralt netværkslag).
  • Den latente repræsentation opdeles i flere hoveder, som hver især beregner opmærksomhedsscorer i det latente rum. Det gør det muligt for modellen at fokusere på forskellige aspekter af dataene på en effektiv måde.
  • Ved at operere i et latent rum reducerer MLA beregningsomkostningerne for opmærksomhedsmekanismer, hvilket gør det muligt at behandle store datasæt eller lange sekvenser.

Kombinationen af multihead-opmærksomhed og latente repræsentationer gør det muligt for modellen at indfange komplekse mønstre og relationer i dataene, hvilket fører til bedre resultater i forbindelse med opgaver som naturlig sprogbehandling, anbefalingssystemer eller dataanalyse.

MTP (Multi-Token Prediction)

Variant af multi-token-forudsigelse i DeepSeek

Multi-token prediction (MTP) er en teknik, der bruges i sprogmodeller til at forudsige flere tokens (ord eller underordnende ord) fremad i en sekvens i stedet for bare det næste token. Denne tilgang kan forbedre modellens evne til at generere sammenhængende og kontekstuelt nøjagtig tekst, da den tilskynder modellen til at overveje langsigtede afhængigheder og strukturer i dataene.

Sådan fungerer det i DeepSeek:

  • Inputsekvensen (f.eks. en sætning eller et afsnit) kodes ved hjælp af en transformerbaseret arkitektur, som indfanger kontekstuel information om hvert token i sekvensen.
  • DeepSeek-modeller har flere output-hoveder, som hver især er trænet til at forudsige et forskelligt fremtidigt token.
  • Hoved 1 forudsiger det næste token. Hoved 2 forudsiger symbolet efter det. Hoved 3 forudsiger symbolet to positioner længere fremme.
  • På inferenstidspunktet genererer modellen tekst autoregressivt, men multitoken-træningen sikrer, at hver forudsigelse er informeret af en bredere kontekst, hvilket fører til en mere sammenhængende og præcis tekstgenerering.

DeepSeek anvender multi-token-prædiktion til at forbedre kvaliteten af sine sprogmodeller, hvilket gør dem mere effektive til opgaver som tekstgenerering, oversættelse og opsummering.

Nuværende modeller

To af de nyeste DeepSeek-modeller er DeepSeek-V3, der blev udgivet i december 2024, og DeepSeek-R1, der blev udgivet i januar 2025.

V3 er en direkte konkurrent til GPT 4o, mens R1 kan sammenlignes med OpenAI's o1-model:

GPT 4o, o1, V3, R1

DeepSeek-V3 er et pålideligt valg til de fleste hverdagsopgaver og kan svare på spørgsmål om ethvert emne. Den brillerer ved at have naturligt klingende samtaler og fremvise kreativitet. Denne model er god til at skrive, skabe indhold eller besvare generiske spørgsmål, som sandsynligvis er blevet besvaret mange gange før.

DeepSeek-R1 brillerer derimod, når det drejer sig om kompleks problemløsning, logik og trinvise ræsonnementer. R1 er designet til at tackle udfordrende forespørgsler, der kræver grundig analyse og strukturerede løsninger. Denne model er fantastisk til kodningsudfordringer og logiktunge spørgsmål.

ModelStyrkerSvagheder
DeepSeek-V3Generel hjælp til kodning og forklaring af begreber i enklere termerKan ofre noget nicheekspertise for alsidighed
 Kreativ skrivning med dyb forståelse for kontekstKan overgeneralisere inden for meget tekniske områder
 Velegnet til hurtig generering af indholdMangler evnen til at ræsonnere
DeepSeek-R1Kan håndtere tekniske nicheopgaverKæmper med bredere kontekst eller tvetydige forespørgsler
 Høj nøjagtighed i specialiserede domæner (f.eks. matematik eller kode)Rigidt og formelagtigt output i kreative opgaver
 Optimeret til teknisk skrivning som f.eks. juridiske dokumenter eller akademiske resuméerMindre tilpasningsdygtig til stil- og toneændringer

Begge modeller har lignende tekniske specifikationer:

 DeepSeek-V3DeepSeek-R1
BasismodelDeepSeek-V3-BaseDeepSeek-V3-Base
TypeModel til generelle formålRæsonnerende model
Parametre671 milliarder (37 milliarder aktiveret)671 milliarder (37 milliarder aktiveret)
Kontekstens længde128 tusind128 tusind

Den vigtigste forskel ligger i deres træning. Her er, hvordan DeepSeek-R1 blev trænet på V3:

  • Finjustering i den kolde start: I stedet for at overvælde modellen med store datamængder med det samme, begynder den med et mindre datasæt af høj kvalitet for at forfine sine svar fra starten.
  • Forstærkningslæring uden menneskelige etiketter: I modsætning til V3 er DeepSeek-R1 helt afhængig af RL, hvilket betyder, at den lærer at ræsonnere uafhængigt i stedet for bare at efterligne træningsdata.
  • Afvisningssampling for syntetiske data: Modellen genererer flere svar, og kun de bedste svar udvælges til at træne sig selv yderligere.
  • Blanding af overvågede og syntetiske data: Træningsdataene fusionerer de bedste AI-genererede svar med de overvågede finjusterede data fra DeepSeek-V3.
  • Endelig RL-proces: En sidste runde med forstærkningslæring sikrer, at modellen generaliserer godt til en lang række spørgsmål og kan ræsonnere effektivt på tværs af emner.

Lad os nu se på nogle benchmarks for at se, hvordan både V3 og R1 klarer sig i forhold til andre populære modeller:

DeepSeek-R1 vs OpenAI o1 vs OpenAI o1 mini vs DeepSeek-V3

AIME 2024 og MATH-500 er matematikbenchmarks, GPQA Diamond og MMLU er generelle videnstests, og endelig er Codeforces og SWE-bench Verified kodningsbenchmarks.

Destillerede DeepSeek-modeller

Destillation inden for kunstig intelligens er processen med at skabe mindre, mere effektive modeller ud fra større modeller, der bevarer meget af deres ræsonnementskraft og samtidig reducerer beregningskravene.

Implementering af V3 og R1 er ikke praktisk for alle, da de kræver 8 NVIDIA H200 GPU'er med 141 GB hukommelse hver. Derfor skabte DeepSeek 6 destillerede modeller med mellem 1,5 B og 70 B parametre:

  • De startede med seks open source-modeller fra Llama 3.1/3.3 og Qwen 2.5.
  • Derefter genererede de 800.000 ræsonnementsprøver af høj kvalitet ved hjælp af R1.
  • Og til sidst finjusterede de de mindre modeller på disse syntetiske ræsonneringsdata.

Her kan du se, hvordan de seks modeller klarede sig i vigtige benchmarks, hvor de demonstrerede deres evner inden for matematik (AIME 2024 og MATH-500), almen viden (GPQA Diamond) og kodning (LiveCode Bench og CodeForces):

DeepSeek-R1 destillerede modeller i benchmarks

Forudsigeligt nok blev resultaterne bedre, efterhånden som antallet af parametre steg. Den mindste model med 1,5 milliarder parametre klarede sig dårligst, mens den største model med 70 milliarder parametre klarede sig bedst. Mærkeligt nok ser den mest afbalancerede model ud som Qwen-32B, som er næsten lige så god som Llama-70B, selv om den har halvt så mange parametre.

DeepSeeks fremtid

DeepSeek har opnået en bemærkelsesværdig succes på kort tid og har fået global anerkendelse næsten fra den ene dag til den anden. Chatbotten syntes at dukke op ud af ingenting, men der er en risiko for, at den kan forsvinde lige så hurtigt. Det er en stor udfordring at bevare brandets synlighed og tillid på lang sigt, især på et så konkurrencepræget marked. Tekniske giganter som Google og OpenAI har budgetter, der langt overstiger DeepSeeks økonomiske ressourcer, og de har også et teknisk forspring.

En af de største forhindringer, som DeepSeek står over for, er computerkløften. Sammenlignet med sine amerikanske modparter har DeepSeek en betydelig ulempe med hensyn til computerkraft. Denne kløft forværres af USA's eksportkontrol af avancerede chips, som begrænser DeepSeeks adgang til den nyeste hardware, der er nødvendig for at udvikle og implementere mere kraftfulde KI-modeller.

Selv om DeepSeek har vist imponerende effektivitet i sine operationer, kunne adgang til mere avancerede beregningsressourcer fremskynde virksomhedens fremskridt betydeligt og styrke dens konkurrenceevne over for virksomheder med større kapacitet. Det er afgørende for DeepSeek at lukke denne computerkløft for at kunne skalere sine innovationer og etablere sig som en stærkere konkurrent på den globale scene.

Når det er sagt, er det vigtigt ikke at male et for dystert billede, for DeepSeek har allerede opnået noget bemærkelsesværdigt. Virksomheden har bevist, at selv med begrænsede ressourcer er det muligt at skabe et produkt i verdensklasse - noget, som mange troede kun var muligt med milliardbudgetter og massiv infrastruktur. DeepSeeks succes vil sandsynligvis inspirere utallige andre og yderligere fremskynde den allerede hurtige udvikling af KI-teknologier.