EU AI Act och Deepfakes: Vad det betyder för dig som Acasting-medlem
EU AI Act och Deepfakes: Vad det betyder för dig som Acasting-medlem
Sammanfattning
EU:s nya AI-förordning (AI Act) börjar träda i kraft 2026 och reglerar hur AI-genererat innehåll får användas. I den här artikeln förklarar vi vad lagen säger om deepfakes, vilka krav som ställs på produktionsbolag och varumärken, och hur Acasting Digital Twin förhåller sig till denna nya reglering.
Det viktigaste att veta:
Deepfakes definieras som AI-innehåll som liknar specifika, existerande personer
All användning av deepfakes måste tydligt märkas som AI-genererat
Digital Twins bygger compliance och transparens från grunden
Du behåller full kontroll och ägande över din digitala version
Vad är en deepfake enligt EU AI Act?
EU:s AI-förordning definierar en deepfake som:
"AI-genererat eller manipulerat bild-, ljud- eller videoinnehåll som liknar existerande personer, objekt, platser, enheter eller händelser och som falskeligen skulle verka autentiskt för en person."
Vad betyder det i praktiken?
En deepfake är alltså innehåll som:
Är skapat med AI (inte traditionell redigering)
Liknar något specifikt och verkligt (en namngiven person, en specifik plats)
Kan uppfattas som äkta av någon som ser det
Exempel på deepfakes:
En AI-genererad video där en känd politiker säger något de aldrig sagt
En reklamfilm där någons ansikte byts ut mot en annans utan tillstånd
En AI-version av en skådespelare som används utan deras vetskap
Viktigt att förstå: Definitionen fokuserar på att innehållet måste likna specifika, existerande personer – inte generiska AI-avatarer utan verklig motsvarighet.
Vad säger lagen om transparens?
Den viktigaste regeln för deepfakes finns i AI Act Artikel 50(4):
"De som använder ett AI-system som genererar eller manipulerar bild-, ljud- eller videoinnehåll som utgör en deepfake, ska tydligt avslöja att innehållet är artificiellt genererat eller manipulerat."
Vad innebär detta konkret?
För produktionsbolag och varumärken betyder det:
All AI-genererat innehåll med verkliga personer måste märkas tydligt
Märkningen ska vara synlig och särskiljbar (inte dold i finstilt text)
Det måste framgå att innehållet är skapat artificiellt
För dig som medlem betyder det:
Om din Digital Twin används i en produktion ska det vara transparent
Publiken ska kunna se att det är AI-genererat innehåll
Detta är ett skydd för dig – ingen kan använda din likhet i hemlighet
Här blir det juridiskt intressant – och lite oklart.
Enligt nuvarande definition i AI Act måste innehållet likna en specifik, existerande person för att klassas som deepfake. Det betyder:
Generiska AI-avatarer (som inte liknar någon verklig person):
Faller tekniskt sett inte under deepfake-definitionen
Men kan fortfarande regleras av andra delar av AI Act
Juridisk gråzon: vad händer om de av misstag liknar någon?
Acasting Digital Twins:
Liknar och ÄR dig som verklig person
Omfattas av deepfake-definitionen
MEN: skillnaden är att du äger den, har gett samtycke, och får ersättning
Som juridiska experter på Schjødt skriver:
"Definitionen är för närvarande vag och kommer förhoppningsvis att förtydligas i framtiden."
Varför Digital Twins är annorlunda
Här är kärnfrågan: Vad är skillnaden mellan en deepfake och en Digital Twin?
Deepfakes (utan tillstånd):
❌ Skapas utan personens vetskap eller samtycke
❌ Används utan ersättning till personen
❌ Kan användas för manipulation eller bedrägeri
❌ Personen har ingen kontroll
Acasting Digital Twin:
✅ Du skapar den själv med full insyn
✅ Du äger 100% av din Digital Twin
✅ Du godkänner varje användning individuellt
✅ Du får ersättning varje gång den används
✅ Full transparens – det är tydligt att det är du och att det är AI-genererat
✅ Dokumenterat samtycke som uppfyller AI Act-krav
Vad betyder "compliance by design"?
När vi säger att Digital Twins är "compliance by design" betyder det att systemet är byggt för att automatiskt uppfylla AI Act-kraven:
1. Transparens:
När din Digital Twin används är det alltid tydligt att:
Det är baserat på en verklig person (dig)
Det är AI-genererat innehåll
Du har gett tillstånd för användningen
2. Samtycke:
Du måste aktivt godkänna varje användning
Inget kan användas utan ditt explicita ja
All dokumentation sparas och kan verifieras
3. Ägande:
Du äger din Digital Twin
Inte Acasting, inte produktionsbolaget, inte varumärket
Du kan när som helst ta bort den
4. Ersättning:
Varje användning genererar ersättning till dig
Transparenta licensavtal
Du vet alltid vad din Digital Twin används till
Varför är detta viktigt för produktionsbolag?
När AI Act börjar tillämpas fullt ut (2026 och framåt) kommer produktionsbolag och varumärken att ställa sig remember följande frågor innan de använder AI-genererat innehåll:
Frågor de måste kunna svara på:
Har vi dokumenterat samtycke från personen?
Kan vi bevisa att innehållet är märkt korrekt?
Vad händer om personen hävdar att vi använt deras likhet utan tillstånd?
Är vi säkra på att vi inte bryter mot AI Act?
Med generiska AI-avatarer:
Svårt att bevisa vem som "äger" avataren
Risk att avataren liknar någon verklig person
Ingen dokumenterad samtyckeprocess
Juridisk osäkerhet
Med Acasting Digital Twins:
Tydligt ägande (du)
Dokumenterat samtycke för varje användning
Built-in transparens
Compliance från dag ett
Därför tror vi att fler produktionsbolag kommer välja Digital Twins framöver – inte för att generiska AI-avatarer blir förbjudna, utan för att Digital Twins ger juridisk trygghet.
Vad händer om någon bryter mot AI Act?
AI Act inkluderar sanktioner för de som bryter mot reglerna. Även om exakta böter och straff varierar beroende på överträdelsens allvar, kan företag som inte följer transparenskraven:
Få böter på upp till 1-7% av global omsättning (beroende på överträdelse)
Tvingas sluta använda vissa AI-system
Drabbas av rättsliga processer från personer vars likhet använts
För dig som medlem betyder det:
Du har starkare juridiskt skydd än någonsin
Produktionsbolag måste ta samtycke på allvar
Om någon använder din likhet utan tillstånd = tydligt lagbrott
Grå zoner och framtida förtydliganden
Vi vill vara ärliga om vad som fortfarande är oklart:
Hur "lik" måste en AI-avatar vara för att klassas som deepfake?
Nuvarande definition är vag
Kan komma att förtydligas genom rättsfall
Vad händer med AI-avatarer som "av misstag" liknar verkliga personer?
Juridiskt grått område
Troligen en fråga för domstolar att avgöra
Hur kommer enforcement faktiskt att se ut?
AI Act är nytt – praktisk tillämpning tar tid
Första åren blir troligen "learning period"
Acasting position: Vi följer utvecklingen noga och uppdaterar våra medlemmar kontinuerligt. Vår strategi är att alltid ligga före regelverket – inte bara uppfylla minimikrav.
Vad betyder detta konkret för dig?
Om du överväger Digital Twin:
Fördelar med att vara early adopter:
Du positionerar dig inför ökad efterfrågan från compliant produktioner
Du får vara med och forma hur branschen hanterar AI etiskt
Du skyddar dig mot framtida olicensierad användning
Vad du behöver göra:
Skapa din Digital Twin när du blir antagen
Granska och godkänn varje användning individuellt
Få ersättning enligt överenskomna licensavtal
Du kan när som helst pausa eller ta bort din Digital Twin
Om du redan har Digital Twin:
Du är redan compliant:
Dina användningar uppfyller AI Act-krav
Produktionsbolag som jobbar med dig har dokumenterat samtycke
Du är del av den etiska AI-lösningen
Sammanfattning: Fyra saker att komma ihåg
AI Act reglerar deepfakes från 2026
Transparenskrav för alla AI-genererade likheter
Strängare regler för high-risk användning
Digital Twins ≠ Deepfakes (i traditionell mening)
Deepfakes = utan samtycke, för manipulation Digital Twins = med samtycke, för legitim produktion
Du har full kontroll:
Du äger din Digital Twin
Du godkänner varje användning
Du får ersättning
Acasting bygger för framtiden:
Vi är compliant från dag ett
Vi följer all regleringutveckling
Vi skyddar våra medlemmars rättigheter
Frågor?
Om du har frågor om AI Act, Digital Twins eller hur detta påverkar dig som medlem, kontakta oss: Email: rebecca@acasting.se Webbplats: acasting.se
Vi uppdaterar denna information kontinuerligt när ny vägledning om AI Act publiceras.
Källor:
EU AI Act (Regulation 2024/1689)
Schjødt Law Firm: "Deep fakes in the AI Act" (November 2024)
Artikel 3(60), Artikel 50(4), Recital 134
Denna artikel är informativ och utgör inte juridisk rådgivning. För specifika juridiska frågor, kontakta en jurist.