Flera människor runt ett arbetsbord med skärmar och huvud av robotar

Studieområde:

Reglering av AI: För lite för sent eller för mycket för tidigt?

AI är idag en teknik som i olika utsträckning integrerats i olika tekniska lösningar och tjänster. Genomslaget förväntas bli än större de närmsta decennierna och föra med sig en rad komplexa risker och osäkerheter. I den här rapporten analyseras processen med att ta fram den europeiska AI-förordningen.

Taktproblemet, det vill säga när innovationstakten utmanar en trögrörlig reglering, skapar i sämsta fall rättslig osäkerhet som i sin tur leder till osäkerhet för företag att investera i teknikutveckling, men även till betydande utmaningar för myndigheters tillsynsarbete. AI är en flerändamålsteknik och kommer med största sannolikhet påverka utvecklingen inom en rad sektorer. De normativa val som görs nu, både i Europa och globalt, kommer att ha stor betydelse för AI-utvecklingen framöver.

Sammanfattning

Den här rapporten visar på sätt att hantera vissa av de utmaningar som har med taktproblem att göra. Trots den rättsliga fixering som AI-förordningen innebär vid ett ikraftträdande, ger den här analysen en del flexibla element som kan ge fingervisningar om hur rättsliga utmaningar kan hanteras i relation till innovation på AI-området.

Taktproblemet är särskilt relevant att analysera i relation till AI i skärningen av två centrala aspekter: 1.) teknikutvecklingen, framför allt på området för generativ AI gällande både kapacitet och antalet användare, har tagit ett språng under 2023, vilket också föranlett EU att revidera betydande delar av AI-förordningen under själva lagstiftningsprocessen, och 2.) EU tycks ha ambitioner att inte bara reglera den europeiska marknaden utan även sträva efter en global påverkan, vilket sker parallellt med tekniksprånget, och visar på en global dynamik i en formativ period i relation till initiativ i USA, Kina, OECD och G7, m.fl.

Att förstå dessa processer – tillblivelsen och framtagandet av AI-förordningen, dess inneboende dynamik med flexibla element, men även relationen till annan lagstiftning samt kommande detaljer i verkställighet och nationell tillsyn – är en förutsättning för att svenska intressenter ska kunna påverka, hantera och positionera sig väl. Att förstå de nya inslagen i AI-förordningen möjliggör för svenska intressenter att nyttja dessa.

Ett särskilt fokus har i den här rapporten lagts vid generativ AI eftersom det är ett särdeles intressant problemområde i relation till taktproblem. Regleringen har att fixera skyddsbehov och samtidigt erbjuda flexibilitet i förhållande till förändrade förutsättningar i en nära framtid, med delvis genuin osäkerhet i vilka AI-tekniker och tillämpningsområden som växer fram.

Studiens frågeställningar

Mer specifikt besvarar rapporten följande fyra frågor som relaterar till taktproblem:

  1. I vilken mån, och på vilket sätt, förekommer mjuk styrning på AI-området?
  2. Hur har den snabba utvecklingen på AI-området påverkat framtagandet av den europeiska AI-förordningen?
  3. Vilka huvudelement av flexibilitet finns i förslaget/förslagen på AI-förordning?
  4. Hur föreslås s.k. generativ AI regleras i AI-förordningen och vilka huvudsakliga utmaningar är förenade med det i relation till pågående utveckling och innovation?

Frågorna motiveras av att AI-förordningen kommer ha stor påverkan på både svenskt näringsliv, myndigheter och i förlängningen svenska medborgare. Även om lagstiftningens upplägg inte slutgiltigt har förhandlats, så finns det en stor nytta att för svenskt vidkommande bättre förstå processen och dess utfall så att det går att 1) ex-ante analysera dess påverkan 2) förbereda och hantera dess utfall på bästa sätt, bland annat gällande frågor om verkställighet och tillsyn och de flexibla element som pekas ut nedan, samt 3) lära inför kommande revideringar och ny tekniklagstiftning på EU-nivå.

Tillväxtanalys om AI och taktproblem

Den här rapporten bygger på insikter från en tidigare litteraturstudie från Tillväxtanalys (Birksjö m.fl., 2022) som redovisar kunskapsläget om skillnader i utvecklingstakt mellan reglering och teknisk innovation, det vill säga, taktproblemet. Den analys som görs här av den europeiska processen med att ta fram en AI-förordning relaterar även till tidigare analyser om AI-politik i relation till konkurrenskraft (Tillväxtanalys, 2022) och hur AI omformar näringslivet (Tillväxtanalys, 2023). Samtidigt som den här rapporten, publiceras också en fallstudie från Tillväxtanalys om regleringen av drönare och elsparkcyklar.

AI-reglering: ett komplext men högst relevant taktproblem

Den europeiska kommissionen föreslog i april 2021 den förordning som fastställer harmoniserade regler om artificiell intelligens. AI-förordningen, ingår i vad som kallas ”den nya lagstiftningsramen” (new legislative framework, NLF), som innebär en slags produktsäkerhetsreglering. Med det följer ett tydligt fokus på bedömningar av överensstämmelse (conformity assessment) som måste genomföras innan en AI-produkt inom högrisksegmentet placeras på marknaden. CE-märkning är därmed en central del.

Efter en stor mängd ändringsförslag samt rådets version, publicerad den 6 december 2022, och parlamentets bekräftade position från den 14 juni 2023, så pågår i skrivande stund förhandlingar för att nå en slutgiltig version.

Parallellt med lagstiftningsprocessen har AI-utvecklingen gått fort. Även om de skäl som anges i den här rapporten som stöd för en snabb AI-utveckling endast utgör ett smalt urval, finns det fog för argumentet att AI-landskapet har förändrats tämligen drastiskt bara under några månader från slutet av 2022 till och med 2023. Ett tecken på det är inte minst vad som ser ut som en ny våg av policydokument, där aktörer som OECD, G7, ACM, World Economic Forum och tillsynsmyndigheter i exempelvis Storbritannien utvecklar och publicerar riktlinjer för generativ AI.

Givet detta visar analysen hur AI-definitionen i AI-förordningen genomgår tämligen kraftiga förändringar från kommissionens förslag till rådets och parlamentets ändringsförslag). Det gäller den allmänna AI-definitionen, men lika intressant är det att koncept som general purpose AI systems och generative AI systems finns med först i rådets version och sedan i parlamentets version där framför allt s.k. foundation models, dvs. AI-grundmodeller, regleras särskilt. Med det sistnämnda eftersträvar parlamentet framför allt mer transparens kring träningsdata och dess hantering för AI-grundmodeller och generativ AI som ligger till grund för innovationer som ChatGPT, baserat på OpenAI:s GPT3 och 4, och språkmodeller som Metas LLaMa, Googles Bard, Anthropics chatbot Claude, Hugging Faces BLOOM eller kinesiska varianter som Huaweis PanGu-Σ eller Baidus Ernie 3.0 Titan. Liknande underliggande modellträning ligger även till grund för AI-system som kan generera bilder genom instruktioner, s.k. prompter, som DALL·E 3, Midjourney och Stable Diffusion. Parlamentet föreslår även transparens- och dokumentationskrav för energiförbrukning och i vilken mån träningsdata är upphovsrättsskyddade.

Även om det finns en rad säkerhetsutmaningar och problem med partiskhet i modeller, som kan leda till diskriminerande effekter, så är det svårt för lagstiftaren att fånga skyddsbehov och ställa välkalibrerade krav på rätt typ av AI-aktör när utvecklingen går så fort. Tumregeln tycks ofta bli att säkerställa transparens genom krav på dokumentation, för att säkerställa möjligheter till ansvarsutkrävande och överhuvudtaget var i den komplexa utvecklingsprocessen som något klandervärt har uppstått.

AI-förordningens flexibilitet

Av de exempel på policyverktyg som litteraturen kring taktproblem tar upp fokuseras i denna analys framför allt rutiner för kontinuerlig teknikbevakning och riskbedömningar, och metoder för att testa teknik under kontrollerade former såsom regulatoriska sandlådor. Det gäller även annan mjuk reglering, i termer av frivilliga överenskommelser, standardiseringsprocesser eller – något som blivit vanligt inom AI-området – principiellt formulerade riktlinjer.

Man kan börja med att konstatera att mjuk styrning i termer av riktlinjer, ofta formulerat i termer av etik, har spelat en betydande roll för AI-utveckling och AI-användning de senaste sju åren. En ny policyvåg tycks ha kommit under 2023 med anledning av generativ AI. De principiella och etiska riktlinjer för AI som har tagits fram har ofta fokuserat behovet av bättre transparens och förklarbarhet, frågor om ansvarsfördelning, behovet av tillförlitliga tillämpningar och vikten av att tydligt hantera rättvisefrågor. Dessa tycks ha bidragit till en del av AI-förordningens fokus på transparens och tillit (parlamentet och rådet hänvisar explicit till den av kommissionen utsedda AI-expertgruppens riktlinjer från 2019). Styrkan i denna mjuka styrning ligger i både snabbhet och möjligheten att finna de principiellt viktigaste förhållningssätten. Svagheten ligger naturligtvis i bristen på sanktioner och avsaknad av process (Larsson, 2020).

Kombinationen av AI och regulatoriska sandlådor är en diskussion och utveckling som hänger starkt ihop med AI-förordningens process, med idén att deltagande företag får undantag från specifika lagar eller efterlevnadsprocesser för att förnya sig, och en spansk pilot startades redan 2022. Eftersom de olika förslagen på regulatoriska sandlådor i olika grad föreskrev inrättande av regulatoriska sandlådor i medlemsstaterna är det i skrivande stund inte klart hur tvingande AI-förordningen blir för att inrätta en sådan. Litteraturen om taktproblem lyfter dock fram regulatoriska sandlådor som en möjlig innovationsfrämjande väg, även om det finns kritik mot hur generellt lärandet egentligen är, utöver att främja den enskilde aktören, och att de ibland utvärderats otillfredsställande (jfr Ranchordas, 2021b).

  • Det tycks därmed finnas behov av att utveckla mer transparent och objektiv design av experimentella regler och regulatoriska sandlådor.
  • Det finns också en medlemsstatskomplexitet gällande AI som lyfts av analytiker (se Buocz m.fl., 2023), där relationen mellan nationell lag och EU-lagstiftning kan behöva förtydligas.
  • De mildare formerna av regulatoriska sandlådor som innebär en närmre samverkan med tillsynsmyndigheter finns det positiva erfarenheter av, och starka skäl för att ta med sig för svenskt vidkommande i relation till när AI-förordningen ska verkställas. Svenska myndigheter bör därför planera för detta redan nu.

Även om det i den här kartläggningen inte funnits utrymme att fördjupa standardiseringsdelen av AI-förordningen kan det konstateras att det både kommer att vara ett viktigt instrument för efterlevnad, eftersom s.k. harmoniserade standarder förutsätts uppfylla krav som ställs i förordningen. Att bidra till standarderna kan därmed vara ett sätt att bidra till regleringens verkställighet och med minskade kostnader för efterlevnad. Med det sagt har standardiseringsproceduren kritiserats med tanke på resurssvaga intresseorganisationers möjligheter, samt ifrågasatts utifrån att tekniska standarder riskerar att inte vara lämpliga för att säkerställa grundläggande rättigheter (jfr BEUC, 2021; diskuteras av Micklitz, 2023).

En intressant aspekt rör de mandat som inom AI-förordningen kan ges till kommissionen att i efterhand ändra och förtydliga lagstiftningen genom s.k. delegerade akter och genomförandeakter. Detta gäller inte minst AI-definitionen i sig, där både kommissionens och rådets version föreslog möjliga tillägg till listan med AI-tekniker, och där rådets version gav även möjlighet till att ta bort tekniker från listan, under vissa specificerade omständigheter. Rådet introducerade general purpose AI dvs. flerändamåls-AI, och anger att kommissionen genom en genomförandeakt ska specificera hur högrisk-kraven ska tillämpas i förhållande till dessa mer generellt tillämpliga AI-system. Konsekvenserna av detta upplägg bör man för svenskt vidkommande titta närmre på, ur perspektivet innovation, med tanke på att förutsägbarheten minskar om delar kan ändras senare. Det är därmed också är en fråga om rättssäkerhet.

Överhuvudtaget tycks fältet för dessa specifika möjligheter att ändra och förtydliga lagstiftning relativt obeforskat utifrån innovationspåverkan, rättssäkerhet och taktproblematik. Det finns en möjlig brist på förutsägbarhet här som behöver förstås bättre, speciellt för så centrala element som definitionen av AI i en AI-lagstiftning.

Slutsatser

Det finns tre områden där studien har landat i slutsatser som berör svenskt politiskt beslutsfattande, och de områdena är AI-förordningens flexibilitet, AI-förordningens konsekvenser för svensk tillsyn, och dess del i en rättslig komplexitet.

AI-förordningens flexibilitet

  • Det finns en konceptuell osäkerhet i AI som styrningsbegrepp. Det gäller ”AI” i sig, såväl som de nyare begreppen ”grundmodell”, ”AI-system för allmänna ändamål” och ”flerändamåls-AI”. Att AI-förordningen knyter lika krav till de två begreppen kommer därför troligen leda till en osäkerhet hos praktiker om vilka krav deras AI-utveckling ska råda under. Betydelsen av detta behöver följas upp i mer detalj.
  • Viss sorts flexibilitet gör att AI-regleringen förskjuter makt över bestämmandet i lagstiftningsprocess till kommissionen, en annan till standardiseringsorgan. Den europeiska lagstiftaren tycks både vilja adressera generativ AI och samtidigt skjuta det på framtiden. De verktyg som står till buds är s.k. delegerade akter och genomförandeakter, samt harmoniserade standarder.
  • Vissa taktproblemslösningar tycks ha en betydande baksida även för marknader: oförutsägbarhet. Dvs., kunskapen kring vilken sorts taktproblemlösningar som bör användas, i relation till deras konsekvenser, behöver fördjupas.
  • Den analys som gjorts här pekar mot att det tycks finnas vissa frågetecken kring hur användbara regulatoriska sandlådor är för AI-innovationer i Sverige. Det handlar mer generellt om huruvida det är möjligt med ett bredare lärande än för det enskilda testfallet, och samtidigt om förenligheten med svensk rätt. Detta beror bland annat på vad man avser med regulatorisk sandlåda, se mer om tillsynssidan nedan. Mer specifikt gällande grundmodeller finns det frågetecken kring om det är möjligt att förena ett befriande av dokumentations- och transparenskrav i en sandlådefas med ett tillämpande av samma krav vid ett senare inträde på marknaden.

AI-förordningens konsekvenser för svensk tillsyn

  • Mer flexibel praktik och vägledning hos tillsynsmyndigheter framstår som ett möjligt och önskvärt sätt att hantera taktproblem.
  • Det gäller särskilt praktisk rättslig vägledning från myndigheter i relation till AI-utveckling och reglering, vilket därmed kan uppmuntras.
  • Det bör ses som ett lärande även för regleraren i termer av att både förvaltningsmyndigheter och tillsynsmyndigheter troligen behöver kompetensutveckla vad AI-utvecklingen medför på deras verksamhets- och tillsynsområde. Flera goda exempel finns.
  • Avslutningsvis tycks myndighetssamverkan vara central, eftersom både AI-tillämpningar generellt och AI-förordningen specifikt träffar så många sakområden.
  • Detta är särskilt relevant med tanke på AI-förordningens ämnesmässiga bredd, med alltifrån frågor om diskriminering och mänskliga rättigheter till tekniskt avancerade frågor, som kan relatera till finansiella marknader, konkurrens, konsumenter, medicinska applikationer, och dataskyddsfrågor, m.m.

Om rättslig komplexitet och behovet av kunskap

  • Det finns rättsliga överlapp i det europeiska regleringslandskapet som behöver förstås bättre, och för svenskt vidkommande troligen koordineras mer. I linje med litteratur om rättsliga överlapp (Crootof & Ard, 2021), finns det anledning att tro att det kommer uppstå en rad frågor i relationen mellan flertalet betydande rättsakter av betydelse för AI-området. Det gäller inte minst relationen mellan AI-förordningen, GDPR, rättsakten för digitala tjänster (DSA), rättsakten för digitala marknader (DMA) såväl som för upphovsrättsdirektivet.
  • Även bortom rättsliga frågor behövs mer kunskapsutveckling om AI som teknik och dessa teknologiers samhällskonsekvenser. En starkare offentlig satsning vore eftersträvansvärd. Tillväxtanalys (2022) har tidigare visat på hur det framför allt är privata satsningar på AI-forskning som utgör djup och tyngd. Någon motsvarande större offentlig satsning finns inte i Sverige.

Metodval

Litteraturen som bistår analysen uttrycker i sig inte en systematisk genomgång, men bygger dels på tematiska sökningar kring AI och reglering men även på tematik runt till exempel experimentell reglering (jfr Ranchordás, 2021), och dels på en systematisk genomgång som har gjorts av författarna till en tidigare rapport från Tillväxtanalys (Birksjö m.fl., 2022). Utöver genomgång av relevant litteratur analyseras ett betydande urval av dokument centrala för den europeiska AI-förordningsprocessen – inte minst kommissionens respektive rådets och parlamentets förslag – och som komplement till detta genomfördes 10 intervjuer med olika sorters expertis på området.

Publicerad:

Reglering av AI: För lite för sent eller för mycket för tidigt?

Serienummer: Rapport 2023:17

Diarienummer: 2021/50

Ladda ner rapporten Pdf, 1.6 MB.

En del av kunskapsprojektet:

test

Håll dig uppdaterad, prenumerera på vårt nyhetsbrev