Allmänna frågor och svar
Artificiell intelligens (AI)utlovar enorma fördelar för vår ekonomi och vårt samhälle. AI-modeller för allmänna ändamål spelar en viktig roll i detta avseende, eftersom de kan användas för en rad olika uppgifter och därför utgör grunden för en rad AI-system i senare led som används i Europa och i hela världen.
AI-akten syftar till att säkerställa att AI-modeller för allmänna ändamål är säkra och tillförlitliga.
För att uppnå detta mål är det avgörande att leverantörer av AI-modeller för allmänna ändamål säkerställer en god förståelse av sina modeller längs hela AI-värdekedjan, så att leverantörer i senare led både kan integrera sådana modeller i AI-system och fullgöra sina egna skyldigheter enligt AI-akten. Närmare bestämt, och såsom förklaras närmare nedan, måste leverantörer av AI-modeller för allmänna ändamål utarbeta teknisk dokumentation av sina modeller för att göra dem tillgängliga för leverantörer i senare led och på begäran tillhandahålla AI-byrån och nationella behöriga myndigheter, införa en upphovsrättspolicy och offentliggöra en sammanfattning av utbildningsinnehållet. Dessutom måste leverantörer av AI-modeller för allmänna ändamål som medför systemrisker, vilket kan vara fallet antingen på grund av att modellerna är mycket kapabla eller på grund av att de har en betydande inverkan på den inre marknaden av andra skäl, anmäla dessa modeller till kommissionen, bedöma och minska systemrisker som härrör från dessa modeller, bland annat genom att utföra modellutvärderingar, rapportera allvarliga incidenter och säkerställa tillräcklig cybersäkerhet för dessa modeller.
På så sätt bidrar AI-akten till säker och tillförlitlig innovation i Europeiska unionen.
I AI-akten definieras en AI-modell för allmänna ändamål som ”en AI-modell, inbegripet när en sådan AI-modell tränas med en stor mängd data med hjälp av självövervakning i stor skala, som uppvisar betydande generalitet och på ett kompetent sätt kan utföra ett brett spektrum av olika uppgifter oavsett hur modellen släpps ut på marknaden och som kan integreras i en mängd olika system eller tillämpningar i senare led” (artikel 3.63 i AI-akten).
I skälen till AI-akten klargörs ytterligare vilka modeller som bör anses ha betydande allmängiltighet och kunna utföra ett brett spektrum av olika uppgifter.
I skäl 98 i AI-akten anges följande: ”En modells allmängiltighet kan bland annat också bestämmas av ett antal parametrar, men modeller med minst en miljard parametrar och som tränas med en stor mängd data med hjälp av självövervakning i stor skala bör anses uppvisa betydande allmängiltighet och kompetent utföra ett brett spektrum av särskiljande uppgifter.”
I skäl 99 i AI-akten tilläggs att ”stora generativa AI-modeller är ett typiskt exempel på en AI-modell för allmänna ändamål, eftersom de möjliggör flexibel generering av innehåll, t.ex. i form av text, ljud, bilder eller video, som lätt kan rymma ett brett spektrum av särskiljande uppgifter”.
Observera att betydande generalitet och förmåga att kompetent utföra ett brett spektrum av särskiljande uppgifter kan uppnås av modeller inom en enda modalitet, såsom text, ljud, bilder eller video, om modaliteten är tillräckligt flexibel. Detta kan också uppnås genom modeller som har utvecklats, finjusterats eller på annat sätt modifierats för att vara särskilt bra på en viss uppgift eller på ett antal uppgifter inom ett visst område.
Olika stadier i utvecklingen av en modell utgör inte olika modeller.
AI-byrån har för avsikt att ytterligare klargöra vad som bör betraktas som en AI-modell för allmänna ändamål, med utgångspunkt i insikter från kommissionens gemensamma forskningscentrum, som för närvarande arbetar med ett vetenskapligt forskningsprojekt som behandlar denna och andra frågor.
Systemrisker är risker för storskalig skada från de mest avancerade (dvs. toppmoderna) modellerna vid en viss tidpunkt eller från andra modeller som har en likvärdig inverkan (se artikel 3.65 i AI-akten). Sådana risker kan till exempel visa sig genom att hindren för utveckling av kemiska eller biologiska vapen sänks eller genom oavsiktliga frågor om kontroll över autonoma AI-modeller för allmänna ändamål (skäl 110 i AI-akten). De mest avancerade modellerna vid en viss tidpunkt kan utgöra systemrisker, inbegripet nya risker, eftersom de driver på den senaste tekniken. Samtidigt kan vissa modeller under tröskelvärdet som återspeglar den senaste tekniken också utgöra systemrisker, till exempel genom räckvidd, skalbarhet eller byggnadsställningar.
I AI-akten klassificeras därför en AI-modell för allmänna ändamål som en AI-modell för allmänna ändamål med systemrisk om den är en av de mest avancerade modellerna vid den tidpunkten eller om den har en likvärdig inverkan (artikel 51.1 i AI-akten). Vilka modeller som betraktas som AI-modeller för allmänna ändamål med systemrisk kan förändras med tiden, vilket återspeglar den senaste utvecklingen och den potentiella samhälleliga anpassningen till alltmer avancerade modeller. För närvarande utvecklas AI-modeller för allmänna ändamål med systemrisk av en handfull företag, även om detta kan förändras i framtiden.
För att fånga upp de mest avancerade modellerna, dvs. modeller som matchar eller överskrider de kapaciteter som registrerats i de mest avancerade modellerna hittills, fastställs i AI-akten ett tröskelvärde på 10^25flyttalsoperationer som används för att träna modellen (artikel 51.1 a och 51.2 i AI-akten). Att träna en modell som uppfyller detta tröskelvärde beräknas för närvarande kosta tiotals miljoner euro (Epoch AI, 2024). AI-byrån övervakar kontinuerligt den tekniska och industriella utvecklingen, och kommissionen får uppdatera tröskelvärdet genom att anta en delegerad akt (artikel 51.3 i AI-akten) för att säkerställa att den fortsätter att välja ut de mest avancerade modellerna i takt med att den senaste tekniken utvecklas. Till exempel kan själva tröskelvärdets värde justeras och/eller ytterligare tröskelvärden införas.
För att fånga upp modeller med en effekt som motsvarar de mest avancerade modellerna ges kommissionen genom AI-akten befogenhet att utse ytterligare modeller som utgör en systemrisk, på grundval av kriterier såsom utvärderingar av modellens kapacitet, antal användare, skalbarhet eller tillgång till verktyg (artikel 51.1 b och bilaga XIII till AI-akten).
AI-byrån har för avsikt att ytterligare klargöra hur AI-modeller för allmänna ändamål kommer att klassificeras som AI-modeller för allmänna ändamål med systemrisk, med utgångspunkt i insikter från kommissionens gemensamma forskningscentrum som för närvarande arbetar med ett vetenskapligt forskningsprojekt som behandlar denna och andra frågor.
AI-aktens regler om AI-modeller för allmänna ändamål är tillämpliga på leverantörer som släpper ut sådana modeller på marknaden i unionen, oavsett om dessa leverantörer är etablerade eller belägna i unionen eller i ett tredjeland (artikel 2.1 a i AI-akten).
En leverantör av en AI-modell för allmänna ändamål är en fysisk eller juridisk person, offentlig myndighet, byrå eller annat organ som utvecklar en AI-modell för allmänna ändamål eller som har utvecklat en sådan modell och släpper ut den på marknaden, antingen mot betalning eller kostnadsfritt (artikel 3.3 i AI-akten).
Att släppa ut en modell på marknaden innebär att modellen tillhandahålls för första gången på unionsmarknaden (artikel 3.9 i AI-akten), dvs. att den tillhandahålls för distribution eller användning på unionsmarknaden för första gången i samband med kommersiell verksamhet, mot betalning eller kostnadsfritt (artikel 3.10 i AI-akten). Observera att en AI-modell för allmänna ändamål också anses släppas ut på marknaden om modellens leverantör integrerar modellen i sitt eget AI-system som tillhandahålls på marknaden eller tas i bruk, såvida inte modellen a) används för rent interna processer som inte är nödvändiga för att tillhandahålla en produkt eller tjänst till tredje parter, b) fysiska personers rättigheter inte påverkas och c) modellen inte är en AI-modell för allmänna ändamål med systemrisk (skäl 97 i AI-akten).
Leverantörer av AI-modeller för allmänna ändamål måste dokumentera teknisk information om sina modeller i syfte att på begäran tillhandahålla denna information till AI-byrån och nationella behöriga myndigheter (artikel 53.1 a i AI-akten) och göra den tillgänglig för leverantörer i senare led (artikel 53.1 b i AI-akten). De måste också införa en policy för att följa unionsrätten om upphovsrätt och närstående rättigheter (artikel 53.1 c i AI-akten) och utarbeta och offentliggöra en tillräckligt detaljerad sammanfattning av det innehåll som används för att träna modellen (artikel 53.1 d i AI-akten).
Den allmänna AI-uppförandekoden bör ge undertecknarna ytterligare information om hur de kan säkerställa efterlevnaden av dessa skyldigheter i de avsnitt som handlar om transparens och upphovsrätt (under ledning av arbetsgrupp 1).
Enligt AI-akten har leverantörer av AI-modeller för allmänna ändamål med systemrisk ytterligare skyldigheter. De måste bedöma och minska systemrisker, särskilt genom att utföra modellutvärderingar, hålla reda på, dokumentera och rapportera allvarliga incidenter och säkerställa tillräckligt cybersäkerhetsskydd för modellen och dess fysiska infrastruktur (artikel 55 i AI-akten).
Den allmänna uppförandekoden för AI bör ge undertecknarna ytterligare information om hur man säkerställer efterlevnad av dessa skyldigheter i de avsnitt som behandlar systemriskbedömning, teknisk riskreducering och styrningsriskreducering (under ledning av arbetsgrupperna 2, 3 respektive 4).
Skyldigheterna för leverantörer av AI-modeller för allmänna ändamål gäller från och med den 2 augusti 2025 (artikel 113 b i AI-akten), med särskilda regler för AI-modeller för allmänna ändamål som släpps ut på marknaden före det datumet (artikel 111.3 i AI-akten).
Skyldigheterna att utarbeta och tillhandahålla dokumentation till AI-byrån, nationella behöriga myndigheter och leverantörer i senare led (artikel 53.1 a och b i AI-akten) gäller inte om modellen släpps ut med en kostnadsfri licens med öppen källkod och dess parametrar, inbegripet vikter, information om modellarkitekturen och information om modellanvändning, offentliggörs (artikel 53.2 i AI-akten). I skälen 102 och 103 i AI-akten klargörs ytterligare vad som utgör en fri licens med öppen källkod, och AI-byrån har för avsikt att göra ytterligare förtydliganden i frågor som rör AI-modeller med öppen källkod för allmänna ändamål.
Undantaget gäller inte AI-modeller för allmänna ändamål med systemrisk. Efter offentliggörandet av modellen med öppen källkod kan det bli svårare att genomföra de åtgärder som krävs för att säkerställa efterlevnaden av skyldigheterna i artikel 55 (skäl 112 i AI-akten). Följaktligen kan leverantörer av AI-modeller för allmänna ändamål med systemrisk behöva bedöma och minska systemrisker innan de släpper ut sina modeller som öppen källkod.
Uppförandekoden för AI för allmänna ändamål bör ge undertecknarna ytterligare information om hur de ska fullgöra skyldigheterna i artiklarna 53 och 55 när det gäller de olika sätten att släppa ut AI-modeller för allmänna ändamål, inbegripet öppen källkod.
En viktig men svår fråga som ligger till grund för utarbetandet av uppförandekoden är att hitta en balans mellan att eftersträva fördelarna och minska riskerna med öppen upphandling av avancerade AI-modeller för allmänna ändamål: Avancerade AI-modeller för allmänna ändamål med öppen källkod kan faktiskt ge betydande samhällsfördelar, bland annat genom att främja AI-säkerhetsforskning. Samtidigt är det lättare att kringgå eller avlägsna riskreducerande åtgärder när sådana modeller har öppen källkod.
I artikel 2.8 i AI-akten föreskrivs att AI-akten som en allmän fråga ”inte är tillämplig på någon forsknings-, testnings- eller utvecklingsverksamhet avseende AI-system eller AI-modeller innan de släpps ut på marknaden eller tas i bruk”.
Samtidigt avser vissa skyldigheter för leverantörer av AI-modeller för allmänna ändamål (med och utan systemrisk) uttryckligen eller underförstått utvecklingsfasen för modeller som är avsedda för, men före, utsläppandet på marknaden. Detta är till exempel fallet när det gäller leverantörernas skyldighet att underrätta kommissionen om att deras AI-modell för allmänna ändamål uppfyller eller kommer att uppfylla tröskelvärdet för utbildningsberäkning (artiklarna 51 och 52 i AI-akten), att dokumentera information om utbildning och testning (artikel 53 i AI-akten) och att bedöma och minska systemrisker (artikel 55 i AI-akten). I artikel 55.1 b i AI-akten föreskrivs uttryckligen att ”leverantörer av AI-modeller för allmänna ändamål med systemrisk ska bedöma och minska eventuella systemrisker på unionsnivå, inbegripet deras källor, som kan härröra från utvecklingen (...) av AI-modeller för allmänna ändamål med systemrisk.
AI-byrån förväntar sig att diskussioner med leverantörer av AI-modeller för allmänna ändamål med systemrisk ska inledas tidigt i utvecklingsfasen. Detta är förenligt med skyldigheten för leverantörer av AI-modeller för allmänna ändamål som uppfyller det tröskelvärde för utbildningsberäkning som fastställs i artikel 51.2 i AI-akten att ”utan dröjsmål och under alla omständigheter inom två veckor efter det att detta krav har uppfyllts eller det blir känt att det kommer att uppfyllas” (artikel 52.1 i AI-akten). Utbildning av AI-modeller för allmänna ändamål kräver betydande planering, vilket inbegriper förhandstilldelning av beräkningsresurser, och leverantörer av AI-modeller för allmänna ändamål kan därför veta om deras modell kommer att uppfylla tröskelvärdet för utbildningsberäkning innan utbildningen är slutförd (skäl 112 i AI-akten).
AI-byrån har för avsikt att göra ytterligare förtydliganden i denna fråga.
AI-modeller för allmänna ändamål kan ändras ytterligare eller finjusteras till nya modeller (skäl 97 i AI-akten). Följaktligen kan enheter i senare led som finjusterar eller på annat sätt ändrar en befintlig AI-modell för allmänna ändamål bli leverantörer av nya modeller. De särskilda omständigheter under vilka en enhet i senare led blir leverantör av en ny modell är en svår fråga med potentiellt stora ekonomiska konsekvenser, eftersom många organisationer och individer finjusterar eller på annat sätt ändrar AI-modeller för allmänna ändamål som utvecklats av en annan enhet.
Vid ändring eller finjustering av en befintlig AI-modell för allmänna ändamål bör skyldigheterna för leverantörer av AI-modeller för allmänna ändamål i artikel 53 i AI-akten begränsas till ändring eller finjustering, till exempel genom att komplettera den redan befintliga tekniska dokumentationen med information om ändringarna (skäl 109). Skyldigheterna för leverantörer av AI-modeller för allmänna ändamål med systemrisk i artikel 55 i AI-akten bör endast gälla i tydligt angivna fall. AI-byrån har för avsikt att göra ytterligare förtydliganden i denna fråga.
Oavsett om en enhet i senare led som införlivar en AI-modell för allmänna ändamål i ett AI-system anses vara en leverantör av AI-modellen för allmänna ändamål måste den enheten uppfylla de relevanta kraven och skyldigheterna i AI-akten för AI-system.
På grundval av artikel 56 i AI-akten bör det i uppförandekoden för AI för allmänna ändamål anges på vilket sätt leverantörer av AI-modeller för allmänna ändamål och AI-modeller för allmänna ändamål med systemrisk kan fullgöra sina skyldigheter enligt AI-akten. AI-byrån underlättar utarbetandet av denna uppförandekod, med fyra arbetsgrupper som leds av oberoende experter och omfattar nästan 1 000 berörda parter, företrädare för EU:s medlemsstater samt europeiska och internationella observatörer.
Närmare bestämt bör det i uppförandekoden åtminstone anges hur leverantörer av AI-modeller för allmänna ändamål kan uppfylla de skyldigheter som fastställs i artiklarna 53 och 55 i AI-akten. Detta innebär att uppförandekoden kan förväntas bestå av två delar: en som gäller för leverantörer av alla AI-modeller för allmänna ändamål (artikel 53) och en som endast gäller för leverantörer av AI-modeller för allmänna ändamål med systemrisk (artikel 55).
Uppförandekoden bör inte ta upp bland annat följande frågor: Fastställande av centrala begrepp och definitioner från AI-akten (såsom AI-modell för allmänna ändamål), uppdatering av kriterierna eller tröskelvärdena för att klassificera en AI-modell för allmänna ändamål som en AI-modell för allmänna ändamål med systemrisk (artikel 51), beskrivning av hur AI-byrån kommer att verkställa skyldigheterna för leverantörer av AI-modeller för allmänna ändamål (kapitel IX avsnitt 5) och frågor om böter, sanktioner och ansvar.
Dessa frågor kan i stället hanteras på andra sätt (beslut, delegerade akter, genomförandeakter, ytterligare meddelanden från AI-byrån osv.).
Uppförandekoden får dock innehålla åtaganden från leverantörer av AI-modeller för allmänna ändamål som undertecknar koden om att dokumentera och rapportera ytterligare information samt att involvera AI-byrån och tredje parter under hela modellens livscykel, i den mån detta anses nödvändigt för att leverantörerna effektivt ska kunna fullgöra sina skyldigheter enligt AI-akten.
AI-akten skiljer mellan AI-system och AI-modeller och inför krav för vissa AI-system (kapitlen II–IV) och skyldigheter för leverantörer av AI-modeller för allmänna ändamål (kapitel V). Bestämmelserna i AI-akten om AI-system beror på systemets användningssammanhang, men bestämmelserna i AI-akten om AI-modeller för allmänna ändamål är tillämpliga på själva modellen, oavsett vad som är eller kommer att vara dess slutliga användning. Uppförandekoden bör endast avse skyldigheterna i AI-akten för leverantörer av AI-modeller för allmänna ändamål.
Det finns dock interaktioner mellan de två uppsättningarna regler, eftersom AI-modeller för allmänna ändamål vanligtvis integreras i och utgör en del av AI-system. Om en leverantör av en AI-modell för allmänna ändamål integrerar den modellen i ett AI-system måste den leverantören uppfylla skyldigheterna för leverantörer av AI-modeller för allmänna ändamål och, om AI-systemet omfattas av AI-aktens tillämpningsområde, kraven för AI-system. Om en leverantör i senare led integrerar en AI-modell för allmänna ändamål i ett AI-system måste leverantören av AI-modellen för allmänna ändamål samarbeta med leverantören i senare led av AI-systemet för att säkerställa att den senare kan fullgöra sina skyldigheter enligt AI-akten om AI-systemet omfattas av AI-aktens tillämpningsområde (till exempel genom att tillhandahålla viss information till leverantören i senare led).
Med tanke på dessa interaktioner mellan modeller och system, och mellan skyldigheterna och kraven för var och en, är en viktig fråga som ligger till grund för uppförandekoden vilka åtgärder som är lämpliga på modellnivå och vilka som i stället måste vidtas på systemnivå.
Uppförandekoden bör ange sina mål, åtaganden, åtgärder och, i förekommande fall, centrala resultatindikatorer för att mäta uppnåendet av dess mål. Åtaganden, åtgärder och centrala resultatindikatorer som rör de skyldigheter som gäller för leverantörer av alla AI-modeller för allmänna ändamål bör ta vederbörlig hänsyn till leverantörens storlek och möjliggöra förenklade sätt att uppfylla kraven för små och medelstora företag, inbegripet uppstartsföretag, som inte bör utgöra en orimlig kostnad och inte motverka användningen av sådana modeller (skäl 109 i AI-akten). Dessutom bör de rapporteringsåtaganden som rör de skyldigheter som är tillämpliga på leverantörer av AI-modeller för allmänna ändamål med systemrisk återspegla skillnader i storlek och kapacitet mellan olika leverantörer (artikel 56.5 i AI-akten), samtidigt som det säkerställs att de står i proportion till riskerna (artikel 56.2 d i AI-akten).
Om uppförandekoden godkänns genom en genomförandeakt får den allmän giltighet, vilket innebär att efterlevnad av uppförandekoden blir ett sätt att visa efterlevnad av AI-akten, samtidigt som den inte ger någon presumtion om överensstämmelse med AI-akten. Leverantörer kan också visa att de följer AI-akten på andra sätt. I sådana fall förväntas leverantörerna vidta åtgärder för att säkerställa efterlevnad av sina skyldigheter enligt AI-akten som är adekvata, effektiva och proportionella, och som kan inbegripa rapportering till AI-byrån.
På grundval av AI-akten är ytterligare rättsverkningar av uppförandekoden att AI-byrån kan ta hänsyn till en leverantörs efterlevnad av uppförandekoden när den övervakar dess faktiska genomförande och efterlevnad av AI-akten (artikel 89.1 i AI-akten) och kan positivt beakta åtaganden som gjorts i uppförandekoden när bötesbeloppet fastställs beroende på de särskilda omständigheterna (artikel 101.1 i AI-akten).
Slutligen: ”Om en uppförandekod inte kan slutföras senast den 2 augusti 2025, eller om AI-byrån anser att den inte är lämplig efter sin bedömning enligt punkt 6 i denna artikel, får kommissionen genom genomförandeakter fastställa gemensamma regler för genomförandet av de skyldigheter som föreskrivs i artiklarna 53 och 55, inbegripet de frågor som anges i punkt 2 i denna artikel.” (artikel 56.9 i AI-akten).
På grundval av artikel 56.8 i AI-akten ska AI-byrån, när så är lämpligt, också uppmuntra och underlätta översynen och anpassningen av uppförandekoderna, särskilt mot bakgrund av nya standarder. Det tredje utkastet till uppförandekod innehåller ett förslag till mekanism för översyn och uppdatering av uppförandekoden.
AI-byrån kommer att övervaka och verkställa de skyldigheter som fastställs i AI-akten för leverantörer av AI-modeller för allmänna ändamål (artikel 88 i AI-akten) och, i undantagsfall, skyldigheterna för leverantörer av AI-system som bygger på AI-modeller för allmänna ändamål om leverantören av modellen och systemet är desamma (artikel 75.1 i AI-akten). AI-byrån kommer bland annat att stödja medlemsstaternas relevanta marknadskontrollmyndigheter i deras efterlevnad av kraven för AI-system (artikel 75.2 och 75.3 i AI-akten). AI-byråns verkställighet stöds av de befogenheter som den ges genom AI-akten, nämligen befogenheten att begära information (artikel 91 i AI-akten), genomföra utvärderingar av AI-modeller för allmänna ändamål (artikel 92 i AI-akten), begära åtgärder från leverantörer, inbegripet genomförande av riskreducering, och återkalla modellen från marknaden (artikel 93 i AI-akten), och att ålägga böter på upp till 3 % av den globala årsomsättningen eller 15 miljoner euro, beroende på vilket som är högst (artikel 101 i AI-akten).
Related content
I den första uppförandekoden för AI för allmänna ändamål som kommissionen mottagit beskrivs reglerna i AI-akten för leverantörer av AI-modeller för allmänna ändamål och AI-modeller för allmänna ändamål med systemrisker.