
Det kinesiske selskapet DeepSeek har gjort et nytt steg i det globale kappløpet om kunstig intelligens. ved kunngjøring DeepSeek-V3.2 og dens variant V3.2-SpecialeDisse to modellene med åpen kildekode er rettet direkte mot den øvre delen av markedet. Selskapet hevder at resonnementsystemet deres er sammenlignbart med ledende benchmarks som GPT-5 og Gemini-3 Pro, noe som legger press på de amerikanske gigantene i en tid med intens teknologisk konkurranse.
I Europa, hvor debatter om Ansvarlig AI, regulering og teknologisk suverenitet Disse trendene er vanlige, og DeepSeeks trekk har ikke gått ubemerket hen. Det faktum at et kinesisk laboratorium har publisert vekter, detaljert teknisk dokumentasjon og en avansert resonnementsmodell i åpen kildekode forsterker følelsen av at økosystemet med åpen kildekode gjenvinner styrke mot fullstendig proprietære løsninger, noe som kan være spesielt interessant for europeiske universiteter, forskningssentre og teknologibedrifter i små og mellomstore bedrifter.
DeepSeek-V3.2: resonnement på nivå med ledende modeller
Hangzhou-baserte oppstartsbedriften har presentert DeepSeek-V3.2 som den endelige og stabile versjonen av deres resonnementsmodeller, og erstatter den eksperimentelle utgaven som ble utgitt uker tidligere. Ifølge selskapet selv, V3.2 oppnår en ytelse som ligner på GPT-5 i ulike benchmarks publikum for flertrinns resonnering og tenkning, og er plassert litt under Gemini-3.0 Pro i noen benchmarktester.
Denne modellen kombinerer Menneskelig resonnering med evnen til å bruke eksterne verktøysom for eksempel nettsøkemotorer, kalkulatorer, kodekjøringsmiljøer eller tredjepartssystemer som Claude Code. Tanken er at systemet ikke bare genererer tekst, men også kan planlegge, spørre om ressurser, utføre funksjoner og deretter integrere disse resultatene til et mer komplett svar uten å kreve konstant overvåking.
DeepSeek har fremhevet at modellen tilbyr to måter å samhandle med verktøy påEn med synlig resonnement, der brukeren kan følge mellomtrinnene, og en annen uten å vise tankeprosessen. I begge tilfeller, den «Resoneringsminne» vedvarer blant oppfordringer til verktøy innenfor samme samtale og starter bare på nytt når en ny melding kommer fra brukeren, noe som er spesielt nyttig for lange oppgaver eller agentlignende flyter.
"Tenkemodusen" integrert i bruken av verktøy
En av de mest slående nye funksjonene i DeepSeek-V3.2 er Direkte integrering av tenkemåten i bruken av verktøySelv om den resonnerer, kan modellen sende spørringer til søkemotoren, aktivere en kalkulator, kjøre kode eller samhandle med andre tjenester, og kombinere sykluser med intern analyse og eksterne anrop for å prøve å gi svar. mer detaljert og presis når oppgaven krever det.
Ifølge selskapet gjør denne tilnærmingen V3.2 til sin første modell som er i stand til å resonnere og bruke verktøy naturligbåde i standardmodus og i intensiv tenkemodus. Det er en klar forpliktelse til det som kalles agentbaserte arbeidsflyterI disse tilfellene svarer ikke AI bare på et enkelt spørsmål, men fungerer som en autonom agent som bryter ned problemet, søker etter informasjon, beregner og deretter kombinerer alt til en sammenhengende løsning.
DeepSeek understreker også at modellen er allment tilgjengelig: DeepSeek-V3.2 kan brukes via nett, app og APIDette forenkler integreringen i produkter, virtuelle assistenter eller forretningsverktøy, inkludert prosjekter utviklet i Europa. For europeiske utviklermiljøer og selskaper som søker åpne alternativer, er muligheten til å utforske og tilpasse modellen uten å være avhengig av én enkelt større plattform en betydelig fordel.
DeepSeek Sparse Attention (DSA)-arkitektur og databehandlingseffektivitet
På et teknisk nivå er kjernen i DeepSeek-V3.2 DeepSeek Sparse Attention (DSA), en oppmerksomhetsmekanisme designet for å håndtere svært lange sekvenser samtidig som den reduserer beregningskostnadene. DeepSeek har avduket et parallelt filsystem optimalisert for AI som utfyller arbeidet med effektivitet og utrulling. Modellen har rundt 671.000 milliarder totale parameteremen ved hvert inferensstrinn aktiveres de bare rundt 37.000 milliarder parametere per tokenDette gjør at kapasiteten kan opprettholdes uten å øke ressursforbruket.
Denne distribuerte arkitekturen tillater arbeid med kontekstvinduer på opptil 128 000 tokens I produksjon er denne størrelsen spesielt nyttig for å analysere omfattende dokumenter, akademisk forskning eller gjennomgå store mengder juridisk og teknisk informasjon – områder av stor interesse for europeiske institusjoner. Ifølge data levert av selskapet, DSA reduserer kostnadene for inferens med omtrent halvparten i sammenligning med en tidligere tett arkitektur i lange kontekster.
For organisasjoner i Spania og resten av EU som står overfor begrensninger i databehandlingsbudsjettet, er dette effektivitetsforbedring Det åpner døren for å eksperimentere med svært avanserte modeller uten å trenge den dyre infrastrukturen som brukes av store amerikanske teknologiselskaper. Likevel erkjenner DeepSeek at de fortsatt har rom for forbedring sammenlignet med konkurrentene i tokeneffektivitet og bredden av verdenskunnskap, to nøkkelområder for storskala utplasseringer.
DeepSeek-V3.2 med intensiv forsterkning ved bruk av RL og syntetiske data for agenter
Utover arkitekturen insisterer DeepSeek på at mye av spranget i resonnement kommer fra en massiv ettertrening gjennom forsterkningslæring (RL)Selskapet har bevilget mer enn 10 % av den totale beregningen før trening bare i denne fasen, en uvanlig prosentandel i sektoren, med sikte på å styrke modellens evne til å korrigere feil, resonnere grundig, bruke verktøy og handle i interaktive miljøer.
Teamet har bygget en komplekst syntetisk dataøkosystem som inkluderer mer enn 1.800 treningsmiljøer og rundt 85 000 avanserte instruksjoner spesifikt for agenter. Disse oppgavene omfatter søk i den virkelige verden, dynamiske simuleringer, kodeutførelse, kjedede problemer og automatisk genererte og verifiserte scenarier for å minimere feil i datasettet.
Denne tilnærmingen er rettet mot å skape AI-agenter som er i stand til å operere med en viss grad av autonomiAnalysere informasjon, ta beslutninger og handle i flertrinns arbeidsflyter. For europeiske selskaper som utforsker automatisering av komplekse prosesser – fra økonomisk analyse til avansert teknisk støtte – kan disse fremskrittene være spesielt attraktive, selv om det gjenstår å se hvordan modellene vil prestere utenfor kontrollerte testmiljøer.
DeepSeek-V3.2-Spesial: matematikk, informatikk og utvidet tenkning
Ved siden av generalistmodellen har DeepSeek lansert DeepSeek-V3.2-Spesial, en variant rettet mot avansert kalkulus, matematiske bevis og utvidede tankeprosesserSelskapet hevder at denne versjonen er på nivå med Gemini-3 Pro Googles resultater i komplekse resonneringsoppgaver og at resultatene nærmer seg gullmedaljeresultater i internasjonale konkurranser.
Spesielt ville Speciale ha nådd nivåer som kan sammenlignes med gullmedaljer i Den internasjonale matematiske olympiaden (IMO)den Internasjonal olympiade i informatikk (IOI), The ICPC verdensfinaler og den kinesiske matematikkolympiaden. Videre integrerer den evner utledet fra modellen DeepSeek-Math-V2, som spesialiserer seg på å bevise teoremer og løse svært vanskelige problemer, noe som styrker deres posisjon innen segmentet modeller for vitenskapelig og teknisk forskning.
I motsetning til standardversjonen, DeepSeek-V3.2-Speciale er ikke rettet mot hverdagsoppgaver heller ikke til generalistiske integrasjoner med verktøy. Selskapet understreker at dette er en modell som primært er utviklet for forskning og akademisk arbeid, med et forbruk på poletter overlegen, så foreløpig Det tilbys kun via API og ikke gjennom generelle applikasjoner.
Tilgjengelighet av DeepSeek-V3.2, blenderåpning og kontrast hos de amerikanske gigantene
DeepSeek har publisert de fullstendige DeepSeek-V3.2-vektene og en detaljert teknisk rapport angående opplæringen deres, noe som står i kontrast til den stadig mer restriktive politikken til noen store amerikanske teknologiselskaper, som ofte begrenser tilgangen til koden eller størrelsen på deres mest avanserte modeller. Selv i tilfeller av åpen kildekode Delvis, som noen versjoner av Llama, kommer åpningen med spesifikke betingelser og nyanser.
I europeisk sammenheng er denne graden av åpenhet og gjennomsiktighet Dette kan være nøkkelen til prosjekter som krever revideringsevne, samsvar med regelverk eller evnen til å tilpasse modeller til regelverk som f.eks. Den europeiske unions lov om kunstig intelligensUniversiteter, forskningssentre og offentlige forvaltninger kan studere modellen mer detaljert, gjenskape eksperimenter eller til og med justere deler til egne behov uten å være helt avhengige av et lukket eksternt API.
Selskapet har satt DeepSeek-V3.2 er tilgjengelig for fellesskapet på plattformer som Hugging Face og ModelScopeI tillegg til å tilby tilgang via API, er Speciale-varianten derimot for øyeblikket begrenset til forbruk gjennom et programmatisk grensesnitt på grunn av dens høyere beregningsbehov og kostnad per tokenDenne blandede distribusjonsstrategien passer inn i mange europeiske aktørers interesse i å ha robuste modeller for forskning, selv om kommersiell utrulling av dem kan kreve mer nøye planlegging.
Kinas rolle i det globale kappløpet om kunstig intelligens
Utgivelsen av DeepSeek-V3.2 kommer på et tidspunkt da Kina ønsker å styrke sin lederstilling innen AI Til tross for restriksjoner på tilgang til avanserte halvledere og økende geopolitiske spenninger, har DeepSeek blitt et av de mest omtalte navnene i det kinesiske økosystemet etter å ha brast inn på scenen tidligere i år med en modell som overrasket alle med sitt effekt-til-kostnadsforhold, og nå dobler de innsatsen med agent- og resonneringsevner på høyt nivå.
For Europa, hvor diskusjonen dreier seg om hvordan man skal balansere innovasjon, databeskyttelse og sikkerhetDenne typen utvikling byr på både muligheter og utfordringer. På den ene siden utvider eksistensen av åpne modeller med høy kapasitet fra Kina utvalget av verktøy som er tilgjengelige for europeiske laboratorier og selskaper. På den andre siden oppstår det spørsmål angående kompatibilitet med lokale forskrifter, grenseoverskridende datastrømmer og virkningen av innholdsreguleringer i Kina, som noen eksperter anser som en mulig hindring for full internasjonal ekspansjon av disse systemene.
DeepSeek har også fått synlighet utenfor hjemmemarkedet etter at V3.1-modellen deltok i automatiserte investeringseksperimenter sammenlignet med systemer som GPT-5 og Gemini 2.5 Pro, hvor den viste konkurransedyktige resultater. Denne strategien kompletteres av lanseringen av andre modeller som DeepSeek-OCR, som har som mål å komprimere tekst gjennom visuell persepsjon og behandle den med færre ressurser, noe som forsterker selskapets image som en aktør fokusert på effektivitet og åpen kildekode.
Forventninger, begrensninger og neste steg
Til tross for selskapets påstander, erkjenner DeepSeek at V3.2 henger fortsatt etter noen av sine amerikanske motparter i aspekter som generell verdenskunnskap, forståelse av brede kulturelle kontekster eller effektivitet i bruk av tokens. Videre innrømmer prosjektlederne selv at sammenligninger basert på offentlige referanseindekser De gjenspeiler ikke alltid ytelsen i produksjonsmiljøer i den virkelige verden, spesielt i åpne oppgaver og med sluttbrukere.
Et annet poeng å vurdere er at integrering av verktøy i resonneringsmodus Det må fortsatt valideres grundig i komplekse, virkelige brukstilfeller, fra helsevesen til økonomiske eller juridiske beslutninger. De beregningsmessige kostnadsbesparelsene som DSA gir er betydelige, men de kan bli overskygget hvis kvaliteten på svarene ikke opprettholdes konsekvent når oppgaver blir mer tvetydige eller krever svært spesifikke kontekster.
Med ankomsten av DeepSeek-V3.2 og dens Speciale-variant får landskapet med avansert resonnering av kunstig intelligens en ny aktør med globale ambisjoner, som satser på åpne modeller, integrerte verktøy og begrensede kostnaderDenne utviklingen utvider utvalget av alternativer innen forskning, næringsliv og offentlig forvaltning, samtidig som den tvinger frem en nytenkning av hvordan man skal passe den raske utviklingen av AI inn i et krevende regelverk og stadig mer markert konkurranse mellom teknologiblokker.
