EU:s första utkast till uppförandekod för märkning av AI-genererat innehåll: Varför marknads-team måste planera för ”AI-labels” redan nu

EU:s första utkast till uppförandekod för märkning av AI-genererat innehåll: Varför marknads-team måste planera för ”AI-labels” redan nu

EU:s AI Act går från principdiskussion till operativa krav. För marknads- och innehållsteam betyder det att frågan inte längre är om ni kommer behöva visa transparens kring AI-assisterat innehåll – utan hur ni gör det i produktion, godkännande och publicering, utan att bromsa tempo eller tappa spårbarhet.

Bakgrunden är tydlig: EU:s transparensregler i Artikel 50 i AI Act (Regulation (EU) 2024/1689) börjar gälla den 2 augusti 2026 enligt förordningens tillämpningsdatum i Artikel 113. Samtidigt har EU-kommissionen publicerat ett första utkast till en frivillig uppförandekod som ska göra det lättare för både leverantörer och användare av generativa AI-system att uppfylla kraven – och tidslinjen är redan satt.

Den här artikeln översätter vad EU faktiskt har publicerat till ett minimalt men robust arbetssätt: provenance-by-design (ursprung som standard). Det är ett sätt att bygga in märkning, loggning och ansvarskedja i varje leverans, oavsett om det handlar om text, bild, video eller ljud.

1) Vad EU publicerade – och varför det angår marknadsorganisationer

Den 17 december 2025 publicerade EU-kommissionen det första utkastet till en ”Code of Practice on marking and labelling of AI-generated content” (uppförandekod för märkning och etikettering av AI-genererat innehåll), som ett stöd för transparenskraven i AI Act, Artikel 50(EU-kommissionens pressmeddelande). Utkastet är tänkt att förfinas i flera versioner och slutversionen ska enligt kommissionen färdigställas i juni 2026(EU-kommissionens pressmeddelande).

Det viktiga för er i marknadsfunktionen är att EU tydligt sätter två parallella spår:

  • Leverantörer (providers) av generativa AI-system ska säkerställa att output (text, bild, video, ljud) kan markeras maskinläsbart och vara detekterbar som AI-genererad eller manipulerad(EU-kommissionens policyöversikt om koden).
  • Användare som nyttjar generativa AI-system i professionellt syfte (deployers) får krav på att tydligt märka deepfakes och i vissa fall AI-genererade/manipulerade textpublikationer som informerar allmänheten om frågor av allmänt intresse, med ett undantag om innehållet genomgått mänsklig granskning och ligger under redaktionellt ansvar(EU-kommissionens policyöversikt om koden).

Marknadsorganisationer hamnar ofta i deployer-rollen: ni publicerar, distribuerar och förstärker innehåll – ibland i egna kanaler, ibland via creators/influencers, ibland genom PR och paid social. Samtidigt köper ni verktyg (provider-ekosystem) och integrerar dem i er pipeline. Det blir alltså både ett inköpskrav och ett publiceringskrav.

Tidslinjen är dessutom fast i lagtext: AI Act trädde i kraft 1 augusti 2024 och blir fullt tillämplig 2 augusti 2026 med vissa undantag(EU-kommissionens AI Act-sida med tidslinje). EU:s egen service desk sammanfattar att transparensreglerna i Artikel 50 börjar tillämpas 2 augusti 2026(AI Act Service Desk – implementation timeline).

2) Vad som förändras i praktiken: från kreativ frihet till spårbarhet

Många team har redan policies som säger ”vi använder AI ansvarsfullt”. Problemet är att det sällan är produktionsbart. När trycket ökar – fler kampanjer, mer personalisering, fler format – blir AI-assistans en del av normal produktion. Då behöver ni kunna svara på tre frågor, snabbt och med spårbarhet:

  1. Vad är AI-assisterat, och på vilket sätt? (idé, copy, bild, röst, klippning, översättning)
  2. Var kan vi bevisa ursprung och ändringshistorik? (loggar, versionshantering, metadata)
  3. Hur märker vi korrekt i respektive kanal? (maskinläsbart i fil, synlig label i UI, disclosure i text)

Det här är skiftet: från ”kreativt val” till ”produktkrav”. I praktiken påverkar det fyra delar av ert maskineri:

  • Brief och kravställning: Ni behöver definiera när AI får användas och vilket bevis ni måste få ut (t.ex. vilket system användes, modell/version, och att filen sparats med relevant metadata).
  • Produktion: Design och video måste välja exportflöden som inte råkar ta bort metadata. Textteam måste veta när och var disclosure ska ske (exempelvis vid publicering av vissa typer av material).
  • Godkännande: Legal/Comms måste kunna granska märkning på samma sätt som de granskar claims, bilder, musikrättigheter och personuppgifter.
  • Publicering och arkiv: CMS, DAM och social publishing måste kunna lagra ”proof of provenance” (ursprungsbevis), inte bara slutfilen.

Det centrala är att ni inte väntar på att varje plattform ska vara konsekvent. EU:s riktning är att märkning ska vara maskinläsbar och detekterbar för att kunna användas av system i kedjan(EU-kommissionens policyöversikt om koden). Det betyder att arbetet måste börja i er egen produktion.

3) Hur märkning kan påverka distribution, förtroende och brand safety

Marknadsförare tänker ofta på märkning som ”en compliance-badge”. Men det kan bli en distributionssignal.

När innehåll får standardiserad, maskinläsbar provenance (ursprungssignaler) kan plattformar och AI-tjänster i teorin:

  • nedvärdera syntetiskt material i vissa känsliga kontexter,
  • särskilja AI-manipulerat material från autentiskt,
  • visa användarvarningar eller informationspaneler,
  • eller prioritera innehåll från källor som kan bevisa ursprung.

Det här är inte science fiction i metadata-världen. IPTC (standardorganisationen för bildmetadata) har till exempel uppdaterat sin Photo Metadata Standard med särskilda fält för AI-genererat innehåll, inklusive AI System Used och AI System Version Used i version 2025.1(IPTC – standardöversikt; IPTC – nyhet om 2025.1). IPTC beskriver också hur Digital Source Type kan användas för att beskriva material som skapats med tränade algoritmiska medier(IPTC – användarguide).

Parallellt finns C2PA, en branschstandard för content provenance som syftar till att bära med sig kryptografiskt skyddad information om ursprung och redigeringar. C2PA:s egna specifikationssida anger att den senaste versionen är v2.2 (maj 2025)(C2PA – specifications overview).

För brand safety blir det här konkret:

  • Om en influencer publicerar ett AI-manipulerat klipp som ser ”äkta” ut kan det slå tillbaka mot varumärket om märkning saknas eller är otydlig.
  • Om ni återanvänder UGC i annonser kan ni behöva kunna visa vad som är original, vad som är bearbetat och om AI använts i redigeringen.
  • Om ni bygger synlighet i AI-sök/LLM-svar (GEO) vill ni kunna följa hur ert material citeras eller sammanfattas – och då är spårbarhet ett sätt att knyta samman källor, versioner och publiceringspunkter.

Målet är inte att märka allt med stora varningsskyltar. Målet är att kunna märka rätt sak, i rätt format, och kunna visa bevis i efterhand.

Fakta

Knyt ihop regelefterlevnad och AI-sök: när innehåll får standardiserad märkning blir det lättare för plattformar att nedvärdera eller särskilja syntetiskt material.

Visa hur ett varumärke kan vända det till en fördel genom att göra transparens till en del av sin synlighetsstrategi.

  • EU-kommissionen publicerade det första utkastet till uppförandekoden den 17 december 2025(Pressmeddelande).
  • Koden är tänkt som ett frivilligt verktyg för att visa efterlevnad av Artikel 50(2) och 50(4) om den godkänns av kommissionen(Policyöversikt).
  • Artikel 50 omfattar transparenskrav för både leverantörer och användare (deployers) av generativa AI-system och tar sikte på märkning/detektering samt label av deepfakes och vissa AI-genererade publikationer(Policyöversikt; Pressmeddelande).
  • EU beskriver att output ska vara markerad i ett maskinläsbart format och detekterbar som artificiellt genererad eller manipulerad, och att lösningar ska vara effektiva och interoperabla ”så långt som tekniskt möjligt”(Policyöversikt).
  • För deployers lyfter EU att deepfakes ska disclosure-märkas, och att AI-genererade/manipulerade textpublikationer om frågor av allmänt intresse kan omfattas, med undantag vid mänsklig granskning och redaktionellt ansvar(Policyöversikt).
  • EU-kommissionen anger att transparensreglerna för AI-genererat innehåll blir tillämpliga 2 augusti 2026(Pressmeddelande; AI Act Service Desk – timeline).
  • AI Act som förordning börjar tillämpas från 2 augusti 2026 enligt Artikel 113(EUR-Lex – Regulation (EU) 2024/1689).

4) Vad ”maskinläsbar” och ”detekterbar” märkning betyder för marknad (utan att fastna i teknik)

Ni behöver inte bli kryptografer för att agera nu. Men ni behöver en arbetsdefinition som går att operationalisera.

  • Maskinläsbar: informationen om AI-generering/manipulation ska kunna läsas av system. I praktiken handlar det ofta om metadata i filen (t.ex. XMP för bild/video) eller ett separat manifest som följer filen. IPTC:s standard beskriver hur metadata kan lagras och pekar på XMP som ett format för att bära sådan information(IPTC – standardöversikt).
  • Detekterbar: det ska gå att upptäcka att märkningen finns och att innehållet är AI-genererat/manipulerat. EU:s formulering i arbetet med koden är att output ska vara ”detectable as artificially generated or manipulated”(EU-kommissionens policyöversikt om koden).
  • Interoperabel (praktisk konsekvens): även om ni publicerar i många kanaler vill ni undvika fem olika sätt att märka samma sak. EU lyfter interoperabilitet som ett mål för tekniska lösningar ”så långt som tekniskt möjligt”(EU-kommissionens policyöversikt om koden).

Den viktiga marknadsimplikationen: om ni bara lägger en synlig text ”AI” i en caption kan det räcka i vissa sammanhang, men det löser inte det maskinläsbara kravet för filer – och det hjälper inte er egen spårbarhet i efterhand. Omvänt: om ni bara har metadata men UI i plattformen saknar disclosure kan ni ändå missa en deployer-skyldighet.

Därför är ”provenance-by-design” inte en tagg. Det är en process.

5) Så förbereder du teamet: ett minimalt men robust provenance-by-design-flöde

Målet är att göra efterlevnad till en biprodukt av bra produktion. Här är ett exempel på ett innehållsflöde som är byggt för att klara märkning, loggning och bevis – utan att lägga ett helt compliance-projekt på kreativa team.

Steg 1: Brief – definiera ”AI-nivå” och beviskrav

Lägg till två obligatoriska fält i brief-mallen:

  • AI-användning (Ja/Nej): används AI för text, bild, video, ljud, eller endast research/idé?
  • Provenance-krav: vilka loggar behöver sparas (t.ex. verktyg, modell/version, prompt-historik, redigeringar, ansvarig granskare).

Poängen är att briefen styr vilken sorts output som måste kunna märkas.

Steg 2: Produktion – välj verktyg och export som bevarar metadata

Här uppstår den vanligaste fallgropen: metadata tappas när någon gör ”Save for web”, skärmdumpar, eller laddar upp via ett verktyg som strippar fält.

Praktiska åtgärder:

  • För bild/video: säkra att ert DAM/Creative Cloud-flöde kan behålla och läsa metadata och att ni har en exportstandard som inte tar bort den.
  • För AI-genererade bilder: överväg att använda etablerade metadatafält. IPTC 2025.1 lägger till specifika fält för AI, som AI System Used och AI System Version Used(IPTC – standardöversikt; IPTC – nyhet om 2025.1).
  • För provenance på bred front: utvärdera stöd för C2PA i de verktyg där ni skapar eller signerar media. C2PA beskriver sig som en teknisk standard för content provenance och authenticity(C2PA – specifications overview).

Steg 3: Godkännande – gör märkning granskningsbar

Ni behöver kunna granska två lager:

  1. Synlig disclosure (där det krävs, t.ex. deepfake-liknande material i kampanj, eller text om frågor av allmänt intresse i vissa sammanhang enligt Artikel 50-spåret(EU-kommissionens policyöversikt om koden)).
  2. Maskinläsbar märkning i fil/asset (när det är relevant), och att den faktiskt överlever er export och publicering.

Det här är enklare om Legal/Comms har en ”visningsvy” i DAM som visar metadata och eventuella provenance-manifest i stället för att någon ska öppna terminalverktyg.

Steg 4: Publicering – knyt label till kanalens logik

Skilj på tre publiceringssätt:

  • Owned (webb, nyhetsbrev, YouTube-kanal): ni kan oftast styra både textdisclosure och filformat. Bra läge att standardisera.
  • Paid (annonser): ni styr materialet, men plattformens UI kan vara oförutsägbar. Bygg en policy för när ni måste ha synlig märkning i kreativet, inte bara i copy.
  • Earned/creator: här är risken störst. Lägg in AI-krav i creator-brief och avtal, inklusive att ni får underlag på hur materialet producerats och att deepfakes/disclosures hanteras.

Steg 5: Loggning och arkiv – gör provenance sökbart

Om ni vill göra transparens till en synlighetsfördel i AI-sök/LLM-svar behöver ni kunna analysera över tid:

  • share of voice (andel av synlighet) för kampanjbudskap i AI-svar,
  • position (var/hur ni nämns),
  • sentiment (tonalitet),

…och koppla det till vilken version av vilket innehåll som låg ute när.

Det kräver ett minimalt register. Det kan börja enkelt:

  • Asset-ID
  • Kanal + datum
  • AI-användning: Ja/Nej
  • Typ av AI: text/bild/video/ljud
  • Verktyg/modell (om känt)
  • Var finns beviset (länk till DAM-version, loggfil, eller signerat manifest)

Här blir compliance en katalysator för mätbarhet.

Så ser AI-assisterad produktion ut i praktiken hos marknadsteam idag (intern aggregerad data från Autorank.ai)

För att förstå varför EU:s AI-labels påverkar arbetsflöden mer än policy, behöver ni se på volymerna. I vår aggregerade enkätbild (sammanställd över kunder som deltog) uppskattas andelen AI-assisterat innehåll redan vara hög i flera kanaler:

  • Annonser: 80% – högst andel, drivet av snabb variantproduktion, lokalisering och A/B-copy.
  • Socials: 70% – kortformat och hög takt gör AI till standard för hooks, omformuleringar och variationer.
  • Blogg: 55% – ofta AI för struktur, sammanfattning och första utkast, med tydlig mänsklig redigering.
  • Video: 35% – främst manus/titlar/repurposing; själva produktionen är fortfarande mer manuell.

Ett snitt över kanaler landar runt 60% AI-assisterat innehåll.

Det här säger något viktigt om planeringen inför 2 augusti 2026: om majoriteten av ert flöde redan är AI-berört, räcker det inte med att “påminna teamet”. Ni behöver en process som gör rätt beteende lätt.

Varför ni bör agera före juni–augusti 2026

Det är lätt att tänka ”vi väntar på den slutliga koden”. Men två saker talar för att agera nu:

  1. Lagen har ett fast datum. AI Act börjar tillämpas 2 augusti 2026(EUR-Lex – Regulation (EU) 2024/1689; AI Act Service Desk – timeline).
  2. Process tar längre tid än policy. Att ändra briefar, DAM-struktur, exportpresets, godkännandeflöden och byrå-/creator-avtal är sällan ett ”snabbt fix”. Dessutom vill ni testa i skarpt läge: om metadata eller märkning inte överlever TikTok/Meta/Programmatic-kedjorna behöver ni veta det innan kravet är aktivt.

EU-kommissionen har också tydligt sagt att koden utvecklas i en process med två arbetsgrupper (providers och deployers) och att syftet är att ge aktörer tid att förbereda sig innan reglerna börjar gälla(EU-kommissionens policyöversikt om koden). Det är en signal: förberedelsefönstret är nu.

Slutsats: bygg provenance-by-design som en del av er synlighetsstrategi

Om ni gör det här rätt blir AI-labels inte bara ”en compliance-kostnad”. Det blir ett sätt att:

  • minska varumärkesrisk (deepfakes, felaktiga claims, fel attribution),
  • förenkla granskning och krishantering (ni vet vad som publicerats, hur det skapats, av vem),
  • och förbättra er AI-synlighet över tid (ni kan koppla källor och versioner till hur plattformar och AI-tjänster citerar er).

Den operativa målsättningen är enkel: innan 2 augusti 2026 ska ni kunna märka, logga och bevisa ursprung för AI-assisterat innehåll i era viktigaste format och kanaler – utan att stoppa produktionstakten.

Referenser