← Tilbage til guides

Generativ AI

Generativ AI producerer nyt indhold ud fra mønstre i træningsdata. Her er hvordan teknologien fungerer, hvilke modeller der findes, og hvordan den bruges i 2026.

Hvad er generativ AI

Generativ AI er samlebetegnelsen for maskinlærings-modeller der kan producere nyt, originalt indhold. Modellerne genererer output i forskellige formater: tekst, billeder, video, lyd, 3D-objekter og kode. Til forskel fra diskriminativ AI (der klassificerer eksisterende data) skaber generative modeller nyt indhold på baggrund af mønstre i deres træningsdata.

Betegnelsen dækker over flere underliggende arkitekturer. Store sprogmodeller som GPT-5 og Claude bygger på transformer-arkitekturen og genererer tekst token for token. Billedgeneratorer som Midjourney og Stable Diffusion bruger diffusion-modeller, der starter med tilfældig støj og gradvist omdanner den til et billede. Video-modeller som Sora og Veo 3 kombinerer begge principper med en tidsdimension.

Fællesnævneren er at modellen ikke kopierer fra sit træningsdata, men derimod har lært statistiske sammenhænge så omfattende at den kan producere plausibelt, sammenhængende output i det valgte format.

De tre hovedtyper af generative modeller

1. Transformer-baserede sprogmodeller

Alle moderne LLMs (GPT-5, Claude Sonnet 4.5, Gemini 2.5 Pro, Llama 4, DeepSeek-V3) bruger transformer-arkitekturen fra Googles 2017-artikel "Attention Is All You Need". Modellen forudsiger næste token baseret på al tidligere kontekst. Den samme arkitektur bruges også til kodegenerering (Codex, Copilot) og til multimodale modeller der kan tage billeder og lyd som input.

2. Diffusion-modeller

Billed- og video-generatorer bruger typisk diffusion. Modellen trænes til at fjerne støj fra støjfyldte versioner af rigtige billeder. Ved inferens startes der med pure støj, som modellen så gradvist renser op trin for trin indtil et billede fremkommer. Eksempler: Stable Diffusion 3.5, FLUX.1, Midjourney v7, DALL-E 3, Google Imagen 4.

3. Hybrid-modeller

Moderne video- og 3D-modeller kombinerer flere tilgange. Sora, Veo 3 og Runway Gen-4 bruger en transformer der opererer på komprimerede video-tokens, kombineret med diffusion-lignende generation. Multimodale modeller som GPT-5 og Gemini 2.5 Pro genererer også billeder direkte fra samme neurale netværk der håndterer tekst.

Generativ AI efter output-format

FormatLedende modeller (2026)Typiske anvendelser
TekstGPT-5, Claude Sonnet 4.5, Gemini 2.5 ProSkriveopgaver, kundesupport, analyse
KodeClaude Sonnet 4.5, GPT-5, DeepSeek-V3Autocomplete, refaktorering, agent-flows
BillederMidjourney v7, FLUX.1, Imagen 4, GPT-image-1Marketing, design, concept art
VideoVeo 3, Sora 2, Runway Gen-4, Kling 2.0Reklamefilm, storyboards, sociale medier
Lyd og stemmeElevenLabs, Suno v5, Udio, OpenAI TTSVoiceover, musik, podcasts
3DRodin, Tripo, MeshySpiludvikling, produktvisualisering

Sådan bruges generativ AI i praksis

Danske virksomheder anvender generativ AI på flere niveauer. På det enkleste niveau får medarbejdere adgang til ChatGPT, Claude eller Copilot som produktivitetsværktøjer til skriveopgaver, kodning og research. Et trin op integreres generative modeller i produktflows: kundesupport-chatbots, e-handelsbeskrivelser der genereres automatisk fra produktdata, og personlige emails tilpasset hver modtager.

På det mest avancerede niveau bygges agent-systemer hvor LLMs styrer workflows selvstændigt: de læser emails, tager beslutninger, opdaterer CRM-systemer og kalder andre API'er. Det forudsætter typisk en kombination af sprogmodel, vektor-database til kontekst, og en orkestrerings-ramme som LangChain eller LlamaIndex.

Inden for kreative brancher bruges billedgeneratorer til hurtig idegenerering, videomodeller til storyboards inden egentlige optagelser, og lyd-modeller til voiceover i flere sprog uden behov for stemmeskuespillere. Marketing-teams kombinerer ofte flere modeller: ChatGPT skriver copy, Midjourney laver hero-billedet, og ElevenLabs læser teksten op til video.

Begrænsninger og risici

Generative modeller hallucinerer: de producerer output der lyder troværdigt men er faktuelt forkert. Problemet er størst for sprogmodeller når de spørges om specifikke facts, navne, datoer eller citater. Billedmodeller kan producere anatomiske fejl (hænder, tænder), og videomodeller har svært ved at bevare objekt-identitet over lange sekvenser.

Copyright er et åbent juridisk spørgsmål. EU's AI Act, der trådte delvist i kraft i 2025, kræver gennemsigtighed om træningsdata og markering af AI-genereret indhold. Flere retssager i USA og Europa afprøver hvorvidt træning på ophavsretligt beskyttet materiale udgør krænkelse. Deepfakes og syntetiske medier skaber også tillidsmæssige udfordringer.

På privatlivssiden er der risiko for at inputdata lækker. Virksomheder bør ikke sende personfølsomme oplysninger eller forretningskritiske data til offentlige API'er uden først at tjekke databehandlingsaftaler og data residency. For danske organisationer kræver GDPR-compliance typisk enten Azure OpenAI i EU-regioner, Anthropics EU-endpoints, eller selv-hostede open source-modeller.

Gå videre