Udvalget for Digitalisering og It 2024-25
S 802
Offentligt
2991277_0001.png
Folketingets Lovsekretariat
Stormgade 2-6
1470 København K
Telefon 72 28 24 00
[email protected]
Sagsnr.
2025 - 888
Doknr.
127533
Dato
17-03-2025
Svar på spørgsmål stillet af Lisbeth Bech-Nielsen (SF) den 7. marts 2025
Spørgsmål nr. S 802:
”Hvilke
initiativer vil ministeren iværksætte for at sikre, at systemer med kunstig intelligens,
der anvendes i folkeskolen og på andre velfærdsområder, er tilstrækkeligt gennemtestede, så
de ikke kommer med beskrivelser om selvskade og selvmord, som det har været tilfældet
med chatbotten SkoleGPT?”
Svar:
Det er af høj prioritet for mig som digitaliseringsminister, at kunstig intelligens-løsninger selv-
følgelig skal testes ordentligt inden de tages i brug -– specielt når det handler om løsninger,
der skal anvendes af børn og unge. Samtidig er det en ny teknologi, som løbende vil udfordre
os som samfund i forhold til etiske dilemmaer og balancer, som vi skal finde.
Med det sagt er jeg af den overbevisning, at bekymringerne for at begå fejl ikke må stå i vejen
for, at vi bliver for bange for at tage teknologien i brug. Hvis teknologien anvendes klogt, er
potentialerne for store til at forpasse. Det betyder ikke, at vi skal kaste os hovedkluds ud i
projekter med kunstig intelligens, men fokus bør ikke kun være på, hvordan vi kan minimere
risikoen for at begå fejl, men mindst ligeså meget på, at vi får håndteret fejlene på en ordent-
lig måde.
Jeg mener derfor, at det er vigtigt, at vi tør være åbne om fejl og uforudsete uhensigtsmæs-
sigheder forbundet med anvendelse af kunstig intelligens, så vi kan lære af dem og forbedre
os fremadrettet.
I den forbindelse er SkoleGPT et godt eksempel på en danskudviklet model med et vigtigt for-
mål, som vi gerne vil se endnu flere af. Sprogmodellen, der anvendes i SkoleGPT, har været
testet inden udgivelse, og der er desuden opsat guardrails, i form af et pre-filter, der opdager
uønsket brugerinput. Selvom fejlen i dette tilfælde var uheldig, viser SkoleGPT også, at vi i
Danmark selv kan udvikle GPT-modeller, der skaber værdi. Det er afgørende, at vi lærer af
denne og lignende erfaringer, så vi kan fortsætte med at udvikle stærke og ansvarlige AI-løs-
ninger.
Forordningen for kunstig intelligens vil ligeledes bidrage til at sikre et højt beskyttelsesniveau
for sundhed, sikkerhed og grundlæggende rettigheder. Forordningen har en risikobaseret til-
gang, hvor der stilles krav til eksempelvis risikostyring og menneskeligt tilsyn, hvis anvendel-
sen kategoriseres som højrisiko. Kunstig intelligenssystemer, hvor risikoen anses som uaccep-
tabel, bliver forbudt i EU. Det, mener jeg, er den rette vej frem.
S 802 - 2024-25 - Endeligt svar på S 802: Hvilke initiativer vil ministeren iværksætte for at sikre, at systemer med kunstig intelligens, der anvendes i folkeskolen og på andre velfærdsområder, er tilstrækkeligt gennemtestede, så de ikke kommer med beskrivelser om selvskade og selvmord, som det har været tilfældet med chatbotten SkoleGPT?
2991277_0002.png
Jeg mener derfor heller ikke, at vi skal bruge unødige kræfter på supplerende national regule-
ring, hver gang vi støder på en fejl eller uhensigtsmæssighed. Det vil potentielt sætte vores
konkurrenceevne og innovationskraft over styr.
Med venlig hilsen
Caroline Stage
2