GPT-5 Guide
OpenAI lancerede GPT-5 i august 2025 som en samlet model med indbygget reasoning. Her er hvordan den fungerer, hvad den koster, og hvornår du bør vælge den frem for Claude eller Gemini.
Hvad er GPT-5
GPT-5 er OpenAIs flagship-sprogmodel, lanceret den 7. august 2025. Modellen afløste både GPT-4o og OpenAIs tidligere o-serie af reasoning-modeller (o1, o3). Det nye er at GPT-5 er en samlet model: den afgør selv hvornår et prompt kræver dyb tænkning, og hvornår et hurtigt svar er tilstrækkeligt.
Arkitekturen består af tre lag: en hurtig basismodel til standardopgaver, en reasoning-motor der bruger mere regnekraft pr. svar, og en router der fordeler prompts mellem dem. For brugeren i ChatGPT betyder det at modelvalget er automatisk. For udviklere der kalder API'et, kan routing-adfærden styres via parametre.
GPT-5 er tilgængelig i tre størrelser: gpt-5, gpt-5-mini og gpt-5-nano. Alle tre deler samme grundarkitektur men adskiller sig på latency, pris og kvalitet.
Tekniske specifikationer
| Specifikation | gpt-5 | gpt-5-mini | gpt-5-nano |
|---|---|---|---|
| Context window | 400.000 tokens | 400.000 tokens | 400.000 tokens |
| Max output | 128.000 tokens | 128.000 tokens | 128.000 tokens |
| Input-pris (per 1M tokens) | 1,25 USD | 0,25 USD | 0,05 USD |
| Output-pris (per 1M tokens) | 10,00 USD | 2,00 USD | 0,40 USD |
| Reasoning indbygget | Ja | Ja | Begrænset |
| Multimodalt input | Tekst, billeder, lyd | Tekst, billeder | Tekst |
Sådan fungerer auto-routing
Når du sender et prompt til GPT-5, analyserer modellen først selve forespørgslen. En letforståelig forespørgsel som "skriv en email til en kunde" dirigeres til den hurtige basismodel og besvares på under et sekund. Et prompt der kræver flertrins-ræsonnement, matematisk udregning eller kodearkitektur aktiverer reasoning-motoren, som kan bruge fra nogle sekunder til flere minutter på at tænke sig frem til svaret.
Via API'et kan du styre adfærden med parameteren reasoning_effort, der accepterer værdierne minimal, low, medium og high. Høj reasoning bruger flere reasoning tokens og koster mere, men øger præcision på svære opgaver.
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="gpt-5",
reasoning={"effort": "high"},
input="Bevis at summen af de første n ulige tal er n²"
)
print(response.output_text)Modellen producerer både synlige output tokens og skjulte reasoning tokens. Du betaler for begge, men kun de synlige vises i svaret. I udviklingsværktøjer som Azure AI Foundry kan du også se en opsummering af ræsonnements-trinnene.
Benchmarks og ydeevne
GPT-5 scorer 94,6% på AIME 2025 (matematik på konkurrenceniveau) og 74,9% på SWE-Bench Verified (real-world kodeopgaver). På Humanity's Last Exam, et benchmark designet til at udfordre selv de stærkeste modeller, ligger GPT-5 på 24,8% uden værktøjer og højere med web- og kodeadgang.
| Benchmark | GPT-5 | Claude Sonnet 4.5 | Gemini 2.5 Pro |
|---|---|---|---|
| AIME 2025 (matematik) | 94,6% | 90,1% | 92,0% |
| SWE-Bench Verified | 74,9% | 77,2% | 67,2% |
| GPQA Diamond | 87,3% | 83,4% | 84,0% |
| MMLU | 91,7% | 88,9% | 89,2% |
GPT-5 er generelt stærkest på matematik og reasoning-tunge opgaver, mens Claude Sonnet 4.5 ofte fører på agent-opgaver og real-world kodning. Gemini 2.5 Pro har længere context window (1 million tokens) og er stærk til dokumentanalyse.
Hvornår bør du vælge GPT-5
Matematik og videnskabelig reasoning
Hvis din opgave involverer flertrins-udregninger, logiske beviser eller STEM-relaterede problemer, leverer GPT-5 den stærkeste ydeevne blandt de store modeller.
Komplekse kodningsopgaver
GPT-5 fungerer godt til arkitektur-beslutninger, debugging af svære fejl og refaktorering af ældre kodebaser. Til lange agent-flows fører Claude Sonnet 4.5 dog stadig på flere benchmarks.
Produktion med varieret trafik
Auto-routing betyder at du kan sende alle prompts til samme endpoint og lade modellen selv balancere pris mod kvalitet. Det er især værdifuldt hvis din applikation har blandet trafik mellem simple og komplekse forespørgsler.
Høj-volumen med gpt-5-nano
Til klassifikation, tagging eller summering af store mængder data er nano-varianten markant billigere end både Claude Haiku og Gemini Flash, mens den stadig har 400K context window.
Begrænsninger og faldgruber
GPT-5 hallucinerer stadig på opgaver der kræver opdateret viden. Training cutoff er oktober 2024, så for aktuelle begivenheder skal du bruge web-søgning via tool-calling. Reasoning-motoren kan også bruge uventet mange tokens på enkle prompts hvis routing-heuristikken fejlvurderer kompleksiteten.
På latency er GPT-5 langsommere end Claude Sonnet 4.5 og Gemini 2.5 Flash når reasoning aktiveres. For interaktive applikationer hvor svartid er kritisk, bør du enten sætte reasoning_effort til minimal eller vælge gpt-5-mini.
En praktisk overvejelse: reasoning tokens faktureres men tæller ikke mod output-grænsen. Det betyder at en opgave der kræver 5.000 reasoning tokens plus 500 synlige output tokens koster signifikant mere end de 500 output tokens antyder.