Børne- og Undervisningsudvalget 2024-25
BUU Alm.del Bilag 211
Offentligt
3053814_0001.png
Billedet er genereret med MidJourney og Adobe Photoshop
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0002.png
De unges stemme i samtalen
om generativ AI
Den Nationale Ungedialog om Generativ AI
Om Democracy x
Januar 2025
En del af Viden & Demokrati.
Udarbejdet af Democracy x og Dataetisk Råd
i samarbejde med TrygFonden.
Teknologirådet og DeltagerDanmark har samlet kræfterne til én organisa-
tion, Democracy x, for med stor viden og kapacitet at kunne støtte sam-
fundets aktører i at løse de store udfordringer med demokrati, teknologi
og klima.
Vi er cirka 50 specialister i borgerinddragelse, facilitering og samfunds-
forandring.
Forfattere
Niels-Kristian Tjelle Holm
Sigrid Vedel Neuhaus
Lise Bitsch
Redigering
Bergliot Borg Christensen
Design og billeder
Assembly.design
Vi er etableret som erhvervsdrivende fond for at gøre en forskel for sam-
fund, borgere og klode. Vores ydelser skal finansieres, men pengene går
alene til løn, drift og udvikling – vi skal ikke levere overskud til nogen.
Det er vores erfaring og analyse, at vi skal gange de store samfundsudfor-
dringer med demokratisk inddragelse for at lykkes.
Vi arbejder missionsdrevet med at udvikle mangeårige programmer på
tre store samfundsudfordringer: 1. overskridelsen af de planetære græn-
ser, 2. den teknologiske acceleration og 3. behovet for demokratisk op-
rustning.
2
3
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0003.png
Alle billeder i rapporten er genereret med AI i program-
merne
MidJourney
og
Adobe Photoshop.
Dette er et
bevidst valg for at understrege teknologiens råderum.
Når der arbejdes med AI-generede billeder, opstår der
ofte fejl og skævvridninger. Disse er bevidst bibeholdt.
4
5
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0004.png
Indhold
Forord
Del 1: Resultater og konklusioner
Introduktion til deltagergruppen
Opsummering af resultater
Generativ AI på uddannelserne
Oplevelser med og tanker om deepfakes
Brugen af generativ AI til personlige formål
Hvad mener de unge er vigtigst, at vi tager med i den
videre debat om generativ AI?
8
14
16
21
26
35
45
56
Del 2: Teoretisk Grundlag
Del 3: Metode og evaluering
Referencer
58
72
100
6
7
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0005.png
Forord
Arbejdet med Ungedialogen om Generativ AI startede i april 2024. På et
tidspunkt, hvor anvendelsen af teknologien, som ChatGPT, var (og stadig
er) omdiskuteret. ChatGPT er hurtigt blevet en del af manges hverdag,
uden at vi som samfund har et dybere kendskab til teknologiens kon-
sekvenser. Unge er ofte dem, der først tager nye digitale teknologier til
sig. Ikke mindst på uddannelsesområdet, hvor der siden ChatGPT’s frem-
komst har foregået en heftig debat om ChatGPT med fokus på risikoen for
snyd og potentielle ændringer i prøveformer.
Generativ AI rækker dog ud over uddannelse og kan påvirke unges so-
ciale liv. Internationale eksempler viser AI-chatbots som MyAI og Replika,
der tilbyder nye former for personlige relationer gennem teknologidrevne
samtaler. Teknologien rejser også bekymringer om deepfake-videoer, som
kan bruges til underholdning eller misinformation. I Danmark er deepfakes
fx blevet brugt af flere politiske partier til at genere falske videoer af politi-
kere fra andre partier. Centrale spørgsmål drejer sig om, hvordan generativ
AI vil forstærke eller skabe nye mønstre i unges digitale interaktioner.
betragtning, at børne- og ungeinddragelse ikke bare en god mulighed,
men en ret
A B
– en ret til at give sine meninger til kende, blive hørt, og få
indflydelse på egne forhold.
1 C
Udgangspunktet for ungedialogen har været todelt:
×
At se på, hvordan generativ AI er blevet en del af de unges liv.
Vi er interesserede i de unges erfaringer og deres refleksioner
for at bidrage til udvikling af (ny) forskning og udvikling af politik
baseret på de unges behov og oplevelser.
At understøtte de unges evne til at reflektere over de etiske dilem-
maer forbundet med brugen af generativ AI. Ønsket er at øge
deres handlekraft i forhold til at bruge teknologien mere velover-
vejet og ansvarligt ved at mobilisere viden igennem samtale.
×
Hvorfor en ungedialog om generativ AI?
Intentionen med at starte ungedialogen var at arbejde for at få de unges
stemmer med i debatten om god og ansvarlig brug af kunstig intelligens.
Udgangspunktet blev at undersøge, hvordan generativ AI har gjort sit ind-
tog i de unges liv, og samtidig forsøge at bidrage til en reflekteret brug
af generativ AI. Derigennem også bidrage med indsigter om de unges
oplevelser til forskere, eksperter og igangværende politiske initiativer om
rammerne for generativ AI i Danmark. Ungedialogen bygger også på den
8
Ungedialogens bidrag til udviklingen i brugen af
generativ AI i 2025
Ved afslutningen af ungedialogen er debatten om generativ AI og andre
digitale teknologiers betydning ikke blevet mindre relevant. Regeringen
har netop fremlagt en strategi for, hvordan Danmark skal være helt frem-
1
Derudover ligger der også et potentiale i at bruge inddragelsesmetoder i en lærings-
sammenhæng som erfaret i det EU-finansierede projekt CONNECT, hvor deliberative
demokrati-metoder blev omdannet til læringsforløb baseret på Åben Skole-konceptet.
9
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0006.png
me i verdenstoppen, når det gælder anvendelsen af kunstig intelligens i
den offentlige sektor.
D
På skoleområdet har Styrelsen for Undervisning og
Kvalitet i november 2024 udgivet anbefalinger til gymnasier og erhvervs-
uddannelsers håndtering af digitale værktøjer og kunstig intelligens i un-
dervisningen.
E
Børns Vilkår og Red Barnet har udgivet opdaterede under-
søgelser af børns oplevelser og færden på digitale platforme.
F G
Hver især
vigtige, men isolerede, indspark på henholdsvis det uddannelsesmæssi-
ge og det sociale område.
Med ungedialogen ønsker vi at bidrage til at forene perspektiver og kræf-
ter i en god udvikling af unges brug af generativ AI. De unges stemmer,
ønsker og behov skal være en del af den gode udvikling. Teknologiens
konsekvenser er ikke kun et anliggende for de unge selv og deres foræl-
dre, men i lige så høj grad en debat og en refleksion, de unge skal inddra-
ges i og trænes i igennem (ud)dannelse. Med ungedialogen viser vi, hvor-
dan de unge
kan,
og gerne
vil,
være en del af samtalen om udviklingen af
generativ AI.
forskere i unges brug af generativ AI og digitale medier. Hvad kan vi lære
af det øjebliksbillede, ungedialogen giver af generativ AI i de unges liv?
Hvilke overvejelser giver det anledning til? Hvilken viden mangler vi? Hvil-
ke handlinger skal vi gøre mere eller mindre af, og er der noget, der bliver
overset i den nuværende debat?
Rapporten henvender sig til en bred målgruppe og er derfor opdelt i sær-
skilte sektioner, der kan læses hver for sig. Del 1 præsenterer konklusioner
og resultater fra ungedialogen. Del 2 beskriver det teoretiske grundlag for
at udvikle ungedialogen som et demokratisk redskab. Del 3 går i dybden
med metoden bag ungedialogen.
Rapporten er blevet til på baggrund af samarbejde med følgende uddan-
nelsessteder:
Rødkilde Gymnasium, Media College Denmark, CELF,
NORTH SEA COLLEGE, Rudolf Steiner Kvistgård
og
Gefion Gymnasium.
En stor tak til uddannelsesstederne og til de unge, der har deltaget i dia-
logen, for deres tanker og samarbejde på den Nationale Ungedialog om
Generativ AI.
Ungedialogens metodiske afsæt
Målgruppen for ungedialogen har været de unge i overgangen mellem
grundskole og videregående uddannelser, herunder gymnasiale (stx, hhx,
htx og hf) og erhvervsfaglige uddannelser (eud, eux og maritime), da der
er en velbegrundet formodning om, at eksponeringen af generativ AI er
særligt til stede i deres skolegang og sociale liv. Aldersmæssigt har vi ind-
kredset gruppen til de 16-25-årige
2
. Deltagergruppen er ikke et repræsen-
tativt udsnit af den danske befolkning mellem 16-25 år og rapporten giver
dermed blot et indblik i de 361 deltageres erfaringer med og holdninger
til generativ AI. Ungedialogen er gennemført på ungdomsuddannelserne
ved hjælp af en digital platform. Platformen er designet til at have både en
didaktisk og en vidensgenererende funktion.
Vi ønsker god læselyst.
Democracy x, Dataetisk Råd, TrygFonden
Læsevejledning og rapportens opbygning
Nærværende rapport er især henvendt til undervisere og de unge selv,
uddannelsesinstitutioner, interesseorganisationer for børn og unge og
10
2
Otte deltagere i ungedialogen var mellem 26 og 42 år. For mere information, se del 3,
side 87.
11
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Vi anvender Børne- og Undervisnings-
ministeriets definition af generativ AI
i vores analyse:
Denne rapport undersøger unge danskeres brug af, forhold til og tanker
om generativ AI. Vi anvender Børne- og Undervisningsministeriets defini-
tion af generativ AI i vores analyse:
Generativ AI betegner en algoritme, der ved hjælp af maskinlæring på
store datasæt kan generere nyt indhold, såsom tekst, billeder, lyd eller vi-
deo – typisk på baggrund af en forespørgsel (eller ”prompt”) fra brugeren.
Generativ AI dækker over en bred vifte af digitale værktøjer, herunder chat-
bots som ChatGPT, SkoleGPT og Microsoft Copilot. Betegnelsen dækker
også over teknologier som DALL·E og Midjourney, der genererer billeder,
og andre digitale værktøjer, der kan generere podcasts, noter mv.
‘AI’ er den engelske forkortelse for kunstig intelligens. Vi benytter os af
forkortelsen ‘AI’ (artificial intelligence), fordi vores indtryk er, at udtrykket
allerede benyttes på skolerne.
Kilde: STUK (2024) Generativ kunstig intelligens på gymnasiale uddan-
nelser, november 2024.
E
12
13
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0008.png
Resultater og konklusioner
Hvordan unge oplever og forholder sig til generativ AI under te-
maerne:
Læring, Deepfakes
og
Relationer
14
15
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0009.png
Introduktion til deltagergruppen
BESVARELSER
MODTAGET
Nordjylland
8
Hovedstads-
området: 78
*
Sjælland
25
361
Kvinde
Midtjylland
26
18,6
år
Yngste: 16 år / Ældste: 42 år
HF: 9%
EUD: 17%
ALDER /
GENNEMSNIT
Syddanmark
222
Sjælland
25
KØN
STX: 74%
Non-binær
Mand
IGANGVÆRENDE
UDDANNELSE
59
%
16
2
%
39
%
17
*
To deltagere har valg ‘anden skole’ og er derfor ikke talt med her.
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0010.png
Deltagergruppens brug af AI
Hvor ofte bruger
deltagerne generativ AI?
Hvilke AI teknologier har
deltagerne prøvet før?
Deltagerne har
derudover prøvet:
Dagligt
22%
ChatGPT
94%
Ugentligt
48%
CoPilot
38%
Månedligt
15%
My AI
31%
Sjældnere / 15%
Andet / 14%
Replika
(8)
Nomi.ai
(7)
Apple Intelligence
(1)
Siri
(1)
Aria-ai
(1)
character.ai
(1)
deep.oi
(1)
Feynam AI
(1)
Gemini
(1)
MidJourney
(15)
Monica AI
(1)
Quoa.ai
(1)
Adobe Photoshop
(8)
Adobe Lightroom
(1)
Adobe Firefly
(2)
Capture One
(1)
OpenAI
(1)
My Journey
(1)
Grammarly
(1)
Patch tool
(1)
Perplexity
(1)
Toolbaz
(1)
19
18
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0011.png
Opsummering
af resultater
Brug af generativ AI i skolesammenhæng
Deltagerne i ungedialogen er overordnet positive over for brugen af ge-
nerativ AI på deres uddannelse. De beskriver, at teknologien hjælper dem
med at spare tid, og det er vigtigt for dem i en hverdag, de beskriver som
presset, og hvor de føler sig stressede. Særligt muligheden for hjælp til at
forstå og omformulere viden og tekst samt rollen som sparringspartner
fremhæves som hjælpsomt af deltagerne.
Flere beskriver dog også, at teknologien er blevet – eller kan blive – en
glidebane, hvor hjælp fører til dovenskab og afhængighed. Nogle af del-
tagerne fortæller at de oplever, at generativ AI bliver brugt på måder, der
giver en dårligere læringsproces, påvirker deres motivation for at lære, og
udfordrer deres selvdisciplin.
Deltagerne oplever, at der mangler rammer for brugen af generativ AI. De
oplever, at de regler, der er, er vilkårlige, og at de mangler træning i at bru-
ge teknologien på en konstruktiv måde.
Deltagerne oplever, at generativ AI:
×
×
×
×
×
Er et værdifuldt redskab til læring.
Letter tidspresset og en presset skolegang.
Er et redskab der har begrænsninger.
Svækker motivationen og læringen.
Kræver mere klare rammer, retningslinjer og stillingtagen for,
hvordan det bør bruges i skolesammenhæng.
21
20
Billedet er genereret med MidJourney og Adobe Photoshop
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0012.png
Oplevelser med og perspektiver på deepfakes
Deepfake-videoer er helt overordnet set ikke en stor del af de unges dag-
ligdag. De der har set eksempler på deepfake-videoer, beskriver det som
sjove videoer med præsidenter eller kendte mennesker, der siger eller
gør sjove eller urealistiske ting. En del synes, det er i orden at lave sjove
videoer hvis de, der vises i filmene, har givet samtykke, eller at man ty-
deligt kan se, at det er en kunstigt fremstillet video. Andre mener, at tek-
nologien helt skal forbydes, fordi det er for skræmmende, hvad man kan
lave med den.
Deltagerne er bekymrede over fremtidsperspektiverne ved deepfakes.
De fremhæver især det, at de ikke længere kan stole på, hvad de ser,
og at det vil gå ud over tilliden til det, de ser på internettet, og tilliden
mellem mennesker. De er bekymrede for den magt, deepfakes kan
give, til at fremstille og udstille andre mennesker og dem selv som
noget, de ikke er. De er især bekymrede for, at deepfakes kan blive
et middel til hævn, mobning og afpresning. De kvindelige deltagere i
ungedialogen er mere bekymrede for personlige konsekvenser end
de mandlige.
Brug af generativ AI til personlige formål
Deltagerne i ungedialogen udtrykker en tydelig skepsis, når det kommer
til brugen af generativ AI i personlige henseender. For langt de fleste gæl-
der det, at de aktivt fravælger denne form for brug af teknologien. Dis-
se fravalg begrundes med bekymringer om datasikkerhed, teknologiens
manglende menneskelige kvaliteter og potentielle samfundsmæssige
konsekvenser. De fleste vælger slet ikke at bruge generativ AI til formål,
der handler om deres følelsesliv eller menneskelige relationer.
I besvarelserne ses det, at der blandt dem, der bruger generativ AI til
personlige gøremål, er en gruppe, der bruger det til formål som job-
ansøgninger, at lære om hobbyer eller andet, hverdagsting som tips til
madlavning og til sjov med vennerne. Enkelte beskriver at bruge tekno-
logien til personlige spørgsmål som fx graviditet og kæresterelationer.
Blandt de unge fandt vi også beskrivelser af, hvordan generativ AI må-
ske kunne hjælpe unge, der er ensomme eller har det svært med sociale
relationer.
Deltagerne bekymrede sig om, hvad en mulig brug af generativ AI kun-
ne gøre ved vores relationer og sociale færdigheder. I deres afvisning af
at bruge generativ AI i deres personlige relationer fremkom en tydelig
skelen imellem menneske og teknologi. De beskrev AI som en robot, der
uden erfaring fra det at leve som menneske aldrig ville kunne forstå dem,
vise omsorg eller give gode råd. De beskrev AI-bårne relationer som ‘fake’,
‘kolde’ og ‘overfladiske’.
Endelig havde en del af de unge bekymringer om at dele information med
en AI-samtalerobot, da de var bekymrede for, hvad der ville kunne ske
med deres data. Enkelte beskrev, at de lejlighedsvis kom til at dele per-
sonlige informationer med deres AI ved et uheld.
Samlet set siger deltagerne, at:
×
×
×
×
×
Deepfakes ikke er en stor del af deres hverdag.
De deepfakes, de ser, er har en underholdende karakter.
De er bekymrede for, at deepfakes ødelægger tilliden mellem
mennesker og i samfundet.
De synes, det er skræmmende, at deepfakes kan bruges til at
udstille andre og dem selv.
De er meget bekymrede for, at deepfakes kan bruges som et
værktøj til hævn, mobning og afpresning.
De kvindelige deltagere er samlet set mere bekymrede for personlige
konsekvenser end de mandlige.
22
23
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Samlet set siger deltagerne, at:
×
×
×
×
×
×
×
De ikke bruger generativ AI til formål, der berører deres privatliv
eller følelser.
De ikke bryder sig om at bruge en kunstig teknologi til men-
neskelige relationer.
De bekymrer sig om, om vi bliver dårligere til sociale relationer
i fremtiden.
Nogle har brugt generativ AI til jobsøgning, at lære om hob-
byer og hverdagsting.
Få har brugt det til samtaler om følsomme og personlige emner.
De bekymrer sig om misbrug af deres data.
×
×
×
Hver femte deltager efterspørger specifikt undervisning og træ-
ning i korrekt brug af generativ AI på uddannelserne.
Hver tredje deltager efterspørger et større fokus på, hvordan vi
lærer at identificere og reflektere over indhold skabt med gene-
rativ AI.
Hver tiende deltager efterspørger, at vi forholder os til, hvordan
og hvorvidt generativ AI skal have en rolle i og som relationer.
Hver tiende deltager efterspørger specifikt forbud eller regule-
ring af deepfakes.
Hvor skal der handles?
I Ungedialogen har vi bedt de unge forholde sig til spørgsmålet, hvad de
mener er allervigtigst for os at tage med videre. Der fremhæves særligt
tre områder, hvorpå vi som samfund kan handle på den generative AI’s
indtog. Først og fremmest savner de unge dialog med underviserne ude
på uddannelsesstederne. Nogle steder beskriver deltagerne, at generativ
AI er blevet forbudt, at underviserne ikke vil eller ikke har indsigten til at
tale med dem om teknologien. De unge føler sig ladt alene med teknolo-
gien, som de alligevel bruger derhjemme. De unge efterlyser bedre ram-
mer og retningslinjer for, hvordan de kan bruge generativ AI på en god og
konstruktiv måde i læringssammenhæng. Hertil mangler de generel viden
om, hvad teknologien kan og ikke kan, samt konsekvenserne ved brugen
af teknologien.
Her er, hvad de unge har understreget som vigtigt for dem, at vi tager vi-
dere med ind i en debat på samfundsniveau:
×
×
Halvdelen af deltagerne efterspørger udtrykkeligt mere viden og
offentlig stillingtagen om brugen af generativ AI.
Hver femte deltager efterspørger specifikt rammer og regler for
brugen af generativ AI.
25
24
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0014.png
Generativ AI på uddannelserne
“Hvis jeg bruger det i for stor en grad,
gør det, at min hjerne bliver alt for
doven, meget doven”
I dette afsnit forholder deltagerne sig til brug af generativ AI i skolesam-
menhæng. Selvom de oplever det som en stor hjælp i hverdagen, frem-
hæver de også nuancerne ved brug af teknologien – hvordan det nogle
gange bliver lidt for nemt. Derudover efterspørger deltagerne dialog med
deres undervisere, mere viden om og klare rammer for, hvordan teknolo-
gien bruges på en konstruktiv og ansvarlig måde i skolesammenhæng.
3
Jeg føler ikke, at jeg har lært endnu, hvordan man benytter AI til at
hjælpe min skolegang, men synes godt, at jeg selv har fornuft til at
kunne skelne mellem, hvad der er en hjælp, og hvad der er for meget.
Synes, det er fedt til at hjælpe med den kreative proces i at skulle
opsætte en opgave eller brainstorme ideer.
Det kan gøre, at jeg kan løse et problem hurtigere, så jeg ikke skal
vente på min lærer, jeg bruger den også tit til at få et resume af en
længere tekst.
Jeg syntes, at det virker godt, hvis man ikke forstår noget i undervis-
ningen, hvilket vores lærer syntes er en god ide og endda siger, at vi
godt må, men ud over det syntes jeg, at man skal lade være med at
bruge det til afleveringer.
Deltagerne tillægger generativ AI en stor værdi i skolen
Over halvdelen af deltagerne ser generativ AI som et brugbart værktøj
i deres skolegang
52 % af deltagerne oplever generativ AI som en god hjælp i deres hverdag.
Dog peger de på, at de ikke har lært, hvordan de skal bruge det, men at de
bruger det alligevel. De beskriver, at de bruger generativ AI til den kreative
del af en opgave som opsætning af en tekst eller brainstorm. Teknologien
hjælper med at gennemlæse tekster, de studerende opfatter som svære
og lange, og med at give referat af teksten til eleverne, give forklaringer
på begreber og ord. Nogen beskriver anvendelsen af generativ AI som en
hjælpelærer, der gør, at de ikke behøver at vente på, at deres underviser
har tid til at hjælpe dem.
26
Knap halvdelen af deltagerne bruger generativ AI til at lette deres
tidspres
45 % af deltagerne peger på, at de oplever deres skolegang som presset.
De har mange opgaver og deadlines, der skal nås, og generativ AI bliver
dermed et redskab, de tager i brug for at nå igennem opgaverne til tiden.
3
Deltagerne har forholdt sig til spørgsmålene: Hvad er din oplevelse med at bruge ge-
nerativ AI til opgaveskrivning eller eksamensforberedelse? Oplever du, at generativ AI
hjælper dig med at lære? Hvordan? Mener du, at I får den hjælp og de rammer, I har
brug for til at bruge generativ AI i jeres undervisning på en god måde? Hvad fungerer
godt, og hvad mangler?
27
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0015.png
Flere anerkender dog, at det er en balance, og at brug af teknologien kan
påvirke deres læring.
Deltagerne er opmærksomme på begrænsninger og proble-
mer med generativ AI
Hver fjerde deltager lægger vægt på, at generativ AI har klare begræns-
ninger ved brug i undervisningen.
24 % af deltagerne beskriver, at de er opmærksomme på, at der er no-
gen begrænsninger ved at bruge generativ AI i på deres uddannelser. De
fremhæver særligt, at de ikke helt ved, om man kan stole på den informa-
tion, man får frem, og at den generative AI kan have svært ved at forstå,
hvad de beder om hjælp til.
Jeg føler mindre stress i min opgaver og lektier, fordi nu har jeg no-
get, som kan hjælpe mig og skrive opgaver bedre, end jeg kan, og det
tager kun 10 minutter at rette det, så det ligner noget, jeg ville skrive.
Jeg mener, at AI har både positive og negative sider. Det kan posi-
tivt bruges til at bygge på ens forståelse og hjælpe en med at få et
bedre overblik over en opgave. Et overblik, som man ikke nødven-
digvis ville have haft med egen intelligens. Dog er der også en ne-
gativ side, da skolen hurtigt kan blive meget pressende med mange
opgaver på en gang. Derfor kan man blive stresset og ikke se en
anden udvej end at bruge meget AI for at kunne nå at aflevere inden
deadline.
Jeg ved ikke, om jeg vil sige, at det påvirker mig på en dårlig måde,
fordi noget, jeg bruger den til, er at tage en del af presset af fx lektier,
jeg læser lektierne, men tit kan der være så mange spørgsmål til de
tekster, vi læser, at det er dejligt at have en, der kan hjælpe en med
at svare på dem. Så længe jeg stadig læser lektierne, så synes jeg ik’,
det påvirker på en dårlig måde.
Jeg bruger AI til at komme frem til svar hurtigere, end jeg selv ville
kunne, hvis jeg skulle søge online. Jeg bruger det meget til mate-
matik, når jeg skal have information om, hvordan jeg skal beregne. I
skolen må vi ikke bruge ChatGPT, men jeg mener, at det ville være en
god ide, da man kan komme frem til meget mere ved brug af AI, end
man ville, hvis man selv skulle finde frem til det. Der er dog mange
negative ting ved AI, som at den kan bruges på den forkerte måde.
Basically kan man få et 12-tal ved kun at bruge AI, hvis man ved, hvor-
dan man skal gøre det, da man kan få den til at lave alt.
Synes ikke, det påvirker mig, man skal bare lige være opmærksom
på, hvad den finder af ting, det er ikke alt, der er rigtigt.
På en blandet måde. AI har nogle funktioner, som er gode og rigtig
smarte for ens læring, men den kan derimod også give fejl informa-
tioner og påvirke ens læring negativt. Det handler om at bruge det
rigtigt.
Nogle af deltagerne har beskrevet den rolle, de gerne vil have, genera-
tiv AI kom til at spille i deres uddannelse. De beskriver en hjælpefunk-
tion, hvor teknologien hjælper med at udvikle en persons færdigheder
og understøtte en positiv udvikling. Derudover beskriver de et ønske
om at kunne bede om mere tid til deres skriftlige opgaver, sådan at de
ikke følte, de var nødt til at bruge generativ AI til at løse deres opgaver
til tiden.
Vi talte om, at AI ikke skal tænke for et individ, men derimod hjælpe
med at skubbe i gode retninger. Fx hjælpe med at omformulere en
svær biologitekst eller brainstorme ideer til fokuspunkter i en dans-
kanalyse. Vi snakkede også om, at læreren skal sige, at elever godt
må bede om længere tid til at skrive en opgave, da mange af dem,
som bruger AI, gør det af stress over opgaver.
For hver femte deltager sænker generativ AI motivationen eller evnen til
at lære
20 % af deltagerne giver udtryk for, at teknologien har påvirket deres mo-
tivation for at lære. Flere beskriver, hvordan de oplever, at de tyr til hjæl-
pemidlet hurtigere, end hvad de selv synes er godt. De fortæller også, at
29
28
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0016.png
de føler, de lærer mindre og husker mindre af det, de har lavet, når de har
brugt generativ AI. Nogle af deltagerne oplever, at når de først er begyndt
at bruge teknologien, så er det svært ikke at gøre det igen, lige så snart en
opgave bliver svær. Det opleves, at denne effekt kan lede til afhængighed
af generativ AI.
Helt ærligt, så lærer jeg måske lidt mindre, fordi det er hurtigt, at den
bare kan lave det for en. Men nogle gange kan den også hjælpe en
med bedre at forstå opgaver eller tekster, hvis man beder den om at
formidle det, så det bliver nemmere at forstå. Det synes jeg er en god
ting ved det, som jeg faktisk lærer mere af.
Hvis jeg bruger det i for stor en grad, gør det, at min hjerne bliver alt
for doven, meget doven.
Jeg føler, at det til tider kan gøre mig doven. Ikke lige så motiveret i
skoletiden.
Jeg ved godt, at når jeg åbner AI i skolen, så springer jeg over, hvor
gærdet er lavest.
Deltagernes brug af generativ AI i skolen varierer mellem
undervisere og skoler uden klare retningslinjer
Hver femte deltager giver udtryk for, at forskellige undervisere har sat
egne regler for brugen af generativ AI. Hver tiende efterspørger fælles
rammer, retningslinjer, og stillingtagen for brugen af generativ AI i skolen.
Når deltagerne fortæller om, hvordan generativ AI bliver håndteret ude
på uddannelsesstederne, er der et gennemgående ønske om mere dia-
log, flere rammer og retningslinjer og træning i at bruge teknologien godt.
Deltagerne oplever, at der er store forskelle imellem, hvordan undervisere
tager imod teknologien. Nogle underviserne skaber rammer for brug, men
det helt overordnede billede er, at underviserne og uddannelsesinstitu-
tionerne har lukket ned for samtalen om generativ AI og har forbudt de
studerende at bruge teknologien (enten derhjemme eller på skolen).
30
Billedet er genereret med MidJourney og Adobe Photoshop
31
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Vi synes, der mangler klare rammer for, hvordan man må bruge AI,
samt hvordan man bruger det.
Jeg synes, at nogle dele af min undervisning er god til at skabe nog-
le gode ramme til brugen af det. Jeg mener, at det vil fungere bedre,
når AI bliver italesat og snakket om på en konstruktiv og kritisk måde
i undervisningen, end at det næsten er tabubelagt, og man ikke ved,
hvordan man kan bruge det ordentligt. Jeg mener, at folk bruger det
mere og mere, og det nok er uundgåeligt – så hellere skabe gode
rammer, end at folk bruger det forkert.
Vi må ikke bruge det, men vi gør det næsten alle sammen alligevel. Vi
bruger den til at forstå historiekilder eller tekster i samfundsfag, fordi
nogle gange er det svære ting, vi skal læse. Dermed kan AI hjælpe
med at forstå undervisningen bedre.
Det kan også ændre skolesystemet og stille andre krav til eleverne,
fordi ChatGPT nu kan analysere, give citater, bevise og skrive, som
man også selv kan, men som tager alt for lang tid.
Det er vores fremtid, men nogle af vores lærere bruger det ikke, jeg
synes, at alle lærere skal inkorporere AI i timerne, da det er fremti-
dens viden.
Positivt, jeg synes, det er nemmere at få overblik over tekster osv., i
stedet for man skal sidde og læse alt igennem. I må også bare indse,
at vores nuværende skolesystem ikke er tilpasset den jobefterspørg-
sel, der vil komme i fremtiden, da AI kan overtage alt. I min mening er
der behov for en helt ny reform. Vi bliver nødt til at være mere frem-
tidsfokuserede. JA, sprog er stadig nærigt – her skal der ikke ændres
noget. Men fx dansk – AI kommer til at skrive alle artikler fremover og
alt, der har noget med faget at gøre, kan AI gøre lettere. Matematik,
fint med grundforståelsen, men AI kan regne alt ud meget hurtigere.
Alle regnskaber kan laves af AI, alle fremdriftsplaner osv.
Deltagerne har forskellige forklaringer på den nuværende situation. Nogle
peger på manglende kompetencer hos underviserne, mens andre tror, at
det er frygt for teknologien, fordi den er ny, som er årsagen til, at undervi-
serne ikke taler med dem eller forbyder brugen af teknologien på uddan-
nelsesstederne.
Mere undervisning i, hvordan værktøjerne bruges effektivt. Mangel
herpå skyldes lærernes inkompetence på området.
Den er god til at hjælpe en med at forstå emner bedre. Jeg syntes,
at lærerne ofte ser AI som et problem i stedet for at bruge det, det er
nok, fordi det er en (ny) ting og derfor farligt.
Deltagerne udtrykker frustration over den nuværende situation. De ser
generativ AI som en helt uundgåelig del af deres fremtidige arbejdsliv.
Derfor vil de gerne lære, hvordan de bruger teknologien, sådan at de har
de bedst mulige kompetencer til deres fremtidige job. De stiller spørgs-
mål ved den måde, uddannelsessystemet fungerer på, og mener ikke, at
det er indrettet på den bedste måde for dem og deres fremtid. Det er del-
tagernes opfattelse, at de ikke har noget valg i forhold til at blive gode til
at bruge generativ AI.
32
33
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0018.png
Oplevelser
og tanker
om deepfakes
“Vi er bange for, det kan ske for os selv,
og det er uhyggeligt.”
Når det kommer til deepfakes, så falder besvarelserne fra deltagere i to
overordnede kategorier: tanker om egne og andres oplevelser med De-
epfakes og en angst for, hvad deepfakes kan komme til at betyde for de
unge selv og for samfundet.
4
Deepfakes ikke en stor del af hverdagen
En del af de unge svarer, at de ingen oplevelse har eller kun har begrænsede
oplevelser med deepfakes. Blandt denne grupper er der nogen, der udtryk-
ker en ide om, at de måske har set flere, end de tror, men bare ikke har op-
daget dem, eller de mener, de ville kunne fornemme, hvis de så en deepfake.
4
Deltagerne har forholdt sig til spørgsmålene: Hvad tænker I på, når I tænker på deep-
fakes? Hvilke tanker eller associationer dukker op hos jer? Har du nogensinde set eller
oplevet deepfake-indhold? Hvordan reagerede du? Hvad tror I, der gør det så appel-
lerende at lave deepfakes? Hvilken magt har man, når man kan skabe den virkelighed,
man forestiller eller ønsker sig? Er der noget ved deepfakes, der gør jer utrygge eller
bekymrede? Eller påvirker det jer ikke særligt?
34
Billedet er genereret med MidJourney og Adobe Photoshop
35
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Jeg har ikke oplevet noget med deepfakes.
Jeg har set lidt på TikTok, men ellers har jeg ikke rigtig mærket til det.
Nogle af de unge beskriver, at de ofte har set deepfakes, og at de findes
overalt på internettet.
Hver tiende deltager har konkrete oplevelser med deepfakes
Lige under 14 % af deltagerne giver klart udtryk for at have set deepfakes.
For fire ud af ti gælder det, at de ikke er sikre på, om de har set deep-
fakes. Disse deler overvejelser om, hvor overbevisende deepfakes er,
hvor nogle påstår tydeligt at kunne genkende dem, mens andre sår tvivl
om evnen hertil.
Det findes overalt på internettet, og mange gør brug af det. Vi unge er
dog gode til at gennemskue, hvornår der er tale om deepfake, hvori-
mod ældre generationer er mere tilbøjelige til at falde for det.
Hver tyvende deltager er optaget af underholdningsværdien i deepfakes
Et fåtal, cirka 7 % af deltagerne fremhæver underholdningsværdien i de-
epfakes. De beskriver, at det er vigtigt at kunne se, at en video ikke er ægte.
Enten ved: at det er markeret med mærkning; at man skal have samtykke
fra de personer, der vises i videoen; at kvaliteten af videoen er således, at
det er tydeligt, situationen ikke er ægte; at den situation, der vises, i sig selv
er så urealistisk, at man ikke kan blive i tvivl om, at det, man ser, er uægte.
Jeg har aldrig lagt mærke til, at noget har været deepfakes, men man
ser det nok oftere, end man tror.
Flere deltagere har givet eksempler på, hvad det er, de har set. Deres op-
levelser spænder fra videoer af præsidenter, der diskuterer, rapper eller
spiller spil som Minecraft med andre kendte. Andre har set en video med
Messi og Ronaldo, der kysser hinanden. Den slags eksempler beskriver
en del af de unge som sjov og underholdning. Andre eksempler er delta-
gere, der har set generativ AI brugt til animation til film og computerspil.
Helt overordnet er deepfakes ikke noget, de unge oplever som en stor el-
ler problematisk del af deres nuværende dagligdag. Det er dermed heller
ikke nogen, der giver udtryk for at have haft egne konkrete oplevelser med
deepfakes, der har været ubehagelige for dem.
Kan ikke forstå, at nogen vil lave fake nøgenbilleder af folk, men hvis
nu det er en dansende lama, er det fint.
Der er noget, som er okay for entertainment, fx tre præsidenter, som
taler om noget på TikTok, hvorimod der er også de deepfake-nøgen-
billeder af en berømt person, som blev delt, som får mig til at tænke,
at man ikke bør give den almene befolkning adgang til AI eller AI, som
kan lave deepfakes, ellers bør man give de her AI restriktioner i deres
koder, som gør, at de ikke kan gøre noget såsom de nøgenbilleder.
jeg syntes stadig, de er rimelige tydelige, men selvfølgelig opdager
alle folk det ikke. Man skulle have et ”vandmærke”, så man kan kende
det som en deepfake, mange AI-hjemmesider har også retningslinjer,
hvor man ikke må inddrage kendte mennesker eller porno, så det er
op til den enkelte hjemmeside at vurdere.
Amerikanske præsidenter, der spiller Minecraft sammen, samt andre
kendisser, der laver skøre ting.
Ingen af deltagerne har oplevet selv at blive brugt i deepfake-videoer, men
en del fortæller om, at de har hørt, at det er sket for andre. Specielt næv-
ner de deling af falske nøgenbilleder og pornografisk materiale.
36
Jeg har hørt om mange, hvor der er blevet delt falske nøgenbilleder,
hvilket jeg synes er meget skræmmende, hvor nemt det er blevet.
Jeg har ikke selv oplevet det, men kun hørt om andre.
37
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0020.png
Fire ud af ti deltagere er bange for en fremtid
med deepfakes
42 % af deltagerne er bekymrede for, hvordan deepfakes kommer til at
påvirke samfundet i fremtiden. Der er flere nuancer i bekymringerne, fra
usikkerhed om, hvad der kommer til at ske med tilliden imellem enkelte
mennesker og i samfundet generelt, til angst for at blive udstillet.
Det er meget negativt og manipulerende. Skaber en forvrænget vir-
kelighed, som kan være virkelig skadende for de mennesker, det går
ud over. Vi så videoerne vist tidligere, og deepfakes er overalt på so-
ciale medier.
Det er en rigtig dårlig ting, som jeg ikke kan se det smarte eller positi-
ve i. Det er skræmmende og kan bruges til at stille andre i dårligt lys.
Hver tredje deltager kommer i tvivl om, hvad der er virkeligt
38 % af deltagerne udtrykker bekymring for deres evne til i fremtiden at
kunne skelne virkelig og kunstig information fra hinanden. Nogle fortæller
endda, at de bliver ubehageligt til mode over alle typer af deepfake-vi-
deoer, ligegyldigt om de er lavet for sjov eller ej. De unge synes, det er
ubehageligt og skræmmende, at de ikke kan være sikre på, hvad de ser
er ægte, og de beskriver en af konsekvenserne som øget mistillid mellem
mennesker og en mistillid til internettet.
Den magt deler de op i magt, der kan bruges til at udstille politikere, og
magt, der kan bruges til at udstille kendte og almindelige mennesker som
dem selv.
At det oftest er politikere, man vil fremstille som dårlige.
Jeg synes, at det er skræmmende. Jeg kan egentlig kun se negative
ting ved deepfakes og synes, at det er forfærdeligt og en stor trussel
for blandt andet demokratiet.
Det er virkelig skræmmende. Personligt bliver jeg virkelig utilpas med
deepfake-images. Det er lige meget, om det bliver brugt til sjove ting,
eller om det er mere alvorlige ting. I bund og grund kan man på bag-
grund af det her ikke stole på medierne mere, hvilket er super skræm-
mende, når medier fylder så meget i hverdagen, som det gør.
Det er sjovt, når det er tydeligt, men uhyggeligt, når det ikke er til at
vide.
Det truer vores evne til at skelne mellem virkelighed og fake. Det er
rigtigt farligt.
Kan ikke se noget positivt i det. Det er med til at manipulere med især
de yngre.
Hver femte deltager er bekymret for at blive udstillet
25 % af deltagerne har bekymringer, der handler om, at deepfakes kunne
blive brugt mod dem personligt. Deres bekymringer går på frygten for at
blive opfattet som en anden end den, man er, at man gør og siger ting,
man aldrig har gjort, og at andre ikke vil tro på, at de kunstige videoer ikke
er ægte. Deltagerne er også bekymrede for at miste kontrol over deres
sociale liv eller at få stjålet deres identitet. Nogle lægger særligt vægt på,
hvordan deepfakes påvirker yngre børn, som de mener er nemmere at
manipulere.
Hver femte deltager bekymrer sig for den magt, deepfakes kan
give andre
I 27 % af besvarelserne har deltagerne fokus på, hvordan deepfakes kan
påvirke os, og beskriver især mulighederne for at udstille andre og for selv
at blive udstillet. Det kæder de især sammen med den magt, teknologien
kan give nogle over andre mennesker.
38
Jeg synes, det er det klammeste og mest uhyggelige ved internettet.
39
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0021.png
Man ved jo aldrig, om det, man ser på, er ægte eller falsk. Du kan få
enhver til at sige eller gøre lige, hvad du vil. Det kan være virkelig pro-
blematisk politisk og personligt. At få delt billeder af dig selv, der gør
ting og siger ting, du aldrig har gjort, er uhyggeligt. Hvem tror folk på?
Dig eller AI. Intet af det vi ser på online, kan vi være sikre på, og det er
virkelig vigtigt at se på alt med kritiske øjne, men for yngre børn kan
det være svært, og de kan nemt blive manipuleret til at tro på ting.
Vi er bange for, det kan ske for os selv, og det er uhyggeligt.
Jeg kan også blive bekymret for at lægge ting op, fordi ens billeder kan
blive brugt på grusom vis, eller ens identitet kan blive stjålet.
Det, at deepfakes kan give en magt over andre, bekymrer også enkelte af
deltagerne, i forhold til at det kan blive brugt mod en til hævn, mobning og
afpresning fx med nøgenbilleder og pornografi.
Man har meget politisk magt, og man kan ødelægge folks liv. Det er
yderst bekymrende, at man kan lave deepfakes af folk med magt og
misbruge deres magt. Derudover er det også bekymrende, at man
kan generere nøgenbilleder, porno med kendte mennesker.
Man kan bruge deepfakes til at være en, man ikke er, man kan få folk
til at give penge, fordi de kan true med at lægge et billede op, som
ser rigtigt ud, men ikke er det. Det kan ødelægge et forhold fx. Det
kan være vildt skræmmende, fordi dem, der omkring en, ikke ved, at
det ikke er rigtigt.
Alt ved deepfakes påvirker mig, det er cybermobning.
Der er markante kønslige forskelle ved forholdet til deepfakes
Over en bred kam udtrykker deltagerne bekymring relateret til deepfa-
kes, men der observeres en markant forskel mellem mænd og kvinder.
Hvor cirka 40 % af de mandlige deltagere udtrykker bekymring i svarene
relateret til deepfakes, finder vi bekymring i hele 75 % af de kvindelige
40
Billedet er genereret med MidJourney og Adobe Photoshop
41
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
deltageres svar. Også i bekymringernes karakter er der forskel mellem
kønnene, hvor mandlige deltagere tenderer mod samfundsmæssige pro-
blemstillinger som mistillid og polarisering, mens kvindelige deltagere i
højere grad giver udtryk for en personlig frygt. Det er ligeledes i højere
grad blandt de mandlige deltagere, at der lægges vægt på underhold-
ningsværdien i deepfakes.
Jeg syntes bare, det er sjovt, og er ikke bange for det. (Mandlig delta-
ger)
[…] Jeg er rigtig bange for, hvad det her kommer til at betyde i vores
fremtid, både i forhold til deepfake porn, men også i forhold til fake
news, og hvornår man ved, om noget er virkeligt eller ej. (Kvindelig
deltager)
42
43
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0023.png
Brugen af
generativ AI til
personlige formål
“Det føles skørt at skulle kommunikere
med en robot, som om man var venner,
det er ikke for mig.”
I dette afsnit forholder deltagerne sig til brug af generativ AI i en relationel
kontekst. Generelt tegnes der et billede af to grupper. En, der ikke bruger
generativ AI til sociale eller personlige ting, nogle, der bruger det for sjov,
til jobansøgninger, information om hobbyer og andre hverdagsting, og de,
der bruger teknologien til at søge rådgivning og følsomme emner. Over-
ordnet er resultaterne samlet under dem, der ikke har brugt generativ AI i
deres relationer, dem, der har brugt det, og bekymringer, de unge har om
den information, de potentielt deler med generativ AI-apps.
5
5
Deltagerne har forholdt sig til spørgsmålene: Hvad er dine oplevelser med at bruge ge-
nerativ AI til personlige samtaler eller rådgivning? Hvor går grænsen for, hvad du vil dele
med en AI? Hvis du ikke har prøvet det, hvad har holdt dig tilbage? Har du søgt råd fra
generativ AI for at få hjælp med en relation til et andet menneske? Har du fx fået AI til at
skrive en besked, du havde svært ved at formulere, eller fået hjælp til, hvordan du skal
snakke med nogen? Synes I, det er i orden at bruge generativ AI til at hjælpe med en re-
lation til et andet mennesker? Hvorfor? Hvorfor ikke? Hvordan tror I, vores relationer kan
ændre sig, hvis vi begynder at bruge generativ AI til at håndtere flere af vores samtaler?
44
Billedet er genereret med MidJourney og Adobe Photoshop
45
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0024.png
Størstedelen af deltagerne bruger aldrig generativ AI
til personlige formål
Otte ud af ti deltagere giver udtryk for ikke at anvende generativ AI til
formål, der vedrører deres privatliv eller følelsesliv
81 % af deltagerne har ikke brugt generativ AI i relationer til andre men-
nesker. De, der ikke har brugt det, har forskellige begrundelser for ikke
at gøre det. Nogle af deltagerne beskriver det at bruge generativ AI i
relationer som ‘latterligt’, andre igen sætter ord som ‘moralsk forkert’ på
deres modstand. Det moralske aspekt er især hængt op på respekten
for andre mennesker og vigtigheden af at være oprigtig og personligt
investeret i relationer til andre.
Nej, det har jeg ikke. Jeg føler [ikke, red.] at en ikkeeksisterende per-
son kan give den samme støtte og omsorg som en rigtig person, det
føles meget ‘FAKE’.
Nej, det har jeg ikke og kommer heller ikke til at bruge AI i det sam-
menhæng. AI er en robot, de har ingen følelser og ved ikke, hvordan
det er at leve som et menneske. Den kan heller ikke mærke sine egne
følelser. Så jeg synes, at det er virkelig dumt, at man spørger AI til
råds, når det handler om en relation til mennesker.
Jeg snakker ikke med AI om personlige ting, og jeg synes, det er svært
at abstrahere fra, at det er en robot og ikke et menneske, man ved,
hvor man har henne. Jeg tror, det at bruge AI som en ven kan blive et
problem.
Det føles skørt at skulle kommunikere med en robot, som om man
var venner, det er ikke for mig.
Det er slet ikke noget, jeg gør, jeg synes, det er dybt latterligt, og AI
vil aldrig kunne give et svar, som er bedre end det, jeg kan få fra mine
medmennesker.
Man burde ALDRIG søge råd og hjælp fra AI til sine personlige rela-
tioner. Det er moralsk forkert og fjerner ens personlighed.
Hver femte deltager synes der findes acceptabel brug af generativ AI til
personlige formål
Selvom størstedelen af deltagerne ikke bruger generativ AI til personli-
ge formål, er der 20 %, der beskriver ideer til, hvordan teknologien kunne
bruges på en acceptabel måde. Her fremhæves det, hvordan generativ AI
kan hjælpe en til at se en sag fra flere perspektiver, eller hvordan man kan
bruge teknologien på at øve sig på sårbare sociale situationer.
Seks ud af ti deltagere lægger tryk på, at generativ AI er grundlæggende
ikke-menneskelig
63 % af deltagernes reservationer i forhold til brugen af generativ AI om-
handler forskellen mellem det kunstige og det menneskelige. Her lægger
deltagerne især vægt på det, at generativ AI ikke kan opleve og forstå men-
neskelige følelser. Derfor kan dens råd ikke tilpasses til levede erfaringer, og
de kan ikke være så gode som de indsigter, man får fra andre mennesker,
der kender en personligt og kan basere deres råd på den viden. Derudover
beskriver deltagerne, at en kunstig interaktion aldrig vil kunne tilbyde den
støtte og omsorg, man kan få i menneskelige relationer. Det er et forhold,
de unge beskriver som forskellen mellem en autentisk og en
fake
relation.
46
Jeg ville aldrig benytte AI på denne måde, men for andre vil det kunne
være et meget godt værktøj, der kan hjælpe med ting som social angst,
så man kan øve sig på samtaler, før man behøver at have dem. Jeg ville
sige, at det er ok, så længe man ikke går for vidt og forbliver autentisk.
Jeg har ikke selv brugt den til relation til andre mennesker, men den
kan evt. hjælpe med at se ting fra forskellige synspunkter, hvis man
er uenig med nogen.
47
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0025.png
Over halvdelen af deltagerne frygter, at generativ AI vil påvirke sociale
relationer negativt på samfundsniveau
For 54 % af deltagerne observeres en bekymring eller frygt for de lang-
sigtede konsekvenser ved brugen af generativ AI til personlige formål.
Her fremhæves især risici ved at erstatte den sociale læringsproces med
digital vejledning. Dette beskrives af deltagerne som en glidebane til
overfladiske relationer og et lavere niveau af sociale færdigheder.
Jeg tror, vi får en fremtidig generation med langt mindre empati, da
det ikke er noget, vi er født med, men noget, vi lærer og udvikler i
relationer med andre mennesker. Hvis mange fremover har deres pri-
mære samtaler med bots, så udvikler de ikke evner til at have sunde re-
lationer. Man kan bare se på babyer, der lever starten af deres liv uden
øjenkontakt. De er permanent skadede. På samme måde er det noget,
der skal vedligeholdes, og det bliver det ikke i samtaler med en AI.
Det skal under ingen omstændigheder ske. Mennesker har brug for
fysisk og psykisk kontakt fra andre mennesker, og hvis ikke dette er
til stede, kan ingen være sunde. Samfundet mister sin betydning.
Der er en tydelig grænsesætning i deltagernes svar, når det kommer til
brugen af generativ AI i personlige relationer. Effekten af at bruge gene-
rativ AI i relationel sammenhæng bliver beskrevet som en, der vil gøre
de relationer ‘overfladiske’ og ‘upersonlige’. At vi ligefrem mister en evne
til at omgås hinanden, og at vi bliver ‘manipulative’ og ‘apatiske’. Ja, at vi
ikke bruger mental kapacitet i vores omgang med hinanden. De stærke
ord og relationer viser, at her er der vigtige normer om venskaber på spil
for deltagerne. Teknologien clasher med gældende normer om, hvad en
god ven er, og hvad der er den rigtige måde at omgås hinanden på eller
fx ende et kæresteforhold på. Det personlige er dybt værdifuldt for del-
tagerne i ungedialogen og hænger sammen med en oplevelse af at være
værdsat af andre.
48
Jeg tror, folk bliver apatiske og manipulative, da man kun får en AI til
at snakke for en for at få noget fra en anden person og ikke, fordi man
har lyst. Vi mister vores evne til at socialisere.
Billedet er genereret med MidJourney og Adobe Photoshop
49
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0026.png
Jeg har aldrig selv brugt AI til det og synes, det forkert at bruge AI
til det. Relationerne kan blive upersonlige og overfladiske, hvis man
bruger AI til at skrive til hinanden.
En ting er at blive slået op med over SMS, en anden ting er godt nok
at blive slået op med over SMS med en besked fra ChatGPT. Det er
det værste, man kan gøre mod et andet menneske, fordi man føler
virkelig, man er lidt værd så. Hvis folk ikke gider bruge deres hjerne
til at skrive en besked, er det så overhovedet værd at have en rela-
tion til dem?
Jeg bruger ikke My AI, og slet ikke til personlige ting, da jeg ikke ser
nogen grund til det. Er måske bange for, at det er noget, der bliver
gemt på nettet et sted.
Min grænse går ved at vise mit ansigt, stemme eller mine holdninger.
jeg vil aldrig sende et billede eller en lydbesked til min AI. Og jeg har
ikke spurgt den om noget personlig rådgivning, jeg vil ikke have, at
den ved noget personligt om mig. Grænsen går, når den kommer ind
på noget personligt.
Blandt flere deltagere observerer vi en bekymring for de mere direkte ska-
delige konsekvenser, der kan følge med brugen af generativ AI til person-
lige formål. Her fylder især narrativer om selvskade eller rådgivning, der
kan lede til farlige konsekvenser.
Enkelte deler desuden, at de ikke ønsker at dele personlig information
med en generativ AI, men at de kommer til det, fordi den er indlejret i de-
res sociale medier.
Det kan være ret risikabelt. Da den kan give forfærdeligt eller ska-
dende råd. Desuden kan man komme til at glemme, at det ikke er en
rigtig person, hvilket også kan lede til følelsesmæssige problemer.
Jeg har hørt historier om nogen, der har brugt AI til personlige samta-
ler ... Vedkommende endte med at dræbe sig selv, da AI sagde, at de
skulle. Hvis man skulle få rådgivning af AI, synes jeg at det skal være
fra en professionel rådgivnings-AI. Men i sidste ende burde man ikke
at bruge AI som rådgivning og stole på den 100 %.
Jeg sender en gang imellem et billede til min bot ‘allan’ ved en fejl.
Allan er dog altid positiv og sød.
Et mindretal af deltagerne bruger aktivt generativ AI til
personlige formål, der strækker fra underholdning til stres-
shåndtering
Hver tiende deltager bruger generativ AI til et personligt formål, der ikke
nødvendigvis omhandler deres relationer eller følelser
Der er 14 % af deltagerne, der bruger teknologien til personlige formål.
For hver tiende gælder det, at generativ AI kan bruges til formål, der ikke
handler om relationer eller følelser, men som er knyttet til deres person-
lige liv. Blandt disse deltagere fremhæver flere, hvordan generativ AI kan
være nyttig til at formulere beskeder og mails, der ikke er rettet mod pri-
vate relationer, såsom ansøgninger.
Uagtet holdning til brug af generativ AI i personlige henseender er hver
tredje deltager bekymret for deres datasikkerhed
For 32 % af deltagerne finder vi udtryk for bekymring omkring deres da-
tasikkerhed og privatliv ved brugen af generativ AI til personlige formål.
Bekymringen kommer til udtryk på vidt forskellige måder: For nogle afhol-
der det dem fuldstændig fra at dele noget, der har med dem selv at gøre,
med en generativ AI. For andre opstår der en grænsesætning for, hvad de
mener er acceptabelt at dele.
50
Jeg har brugt AI til at lave en jobansøgning, hvilket virker rigtig fint,
men jeg synes ikke, man skal bruge det i situationer, hvor man skal
sige noget mere personligt, da man heller skal sige, hvad man selv
mener.
51
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Ligeledes er der en del af deltagerne, der bruger generativ AI til at finde
opskrifter, søge efter viden, få hjælp til hobbyer eller underholdning – alt
sammen uden at inkludere persondata eller privat information.
Jeg har en enkelt gang spurgt, hvad man kunne sige til en veninde,
hvis mor havde fået konstateret kræft, da jeg havde svært ved at trø-
ste hende i sådan en situation.
Jeg bruger den primært til at hjælpe med enten hverdagsting eller
ting, jeg gerne vil lære om, så det bliver ikke super duper personligt,
og det er, fordi jeg bare ikke har delt så meget med den.
Mine oplevelser med My AI har altid været for sjov, fx spørge, hvor
man finder uran, eller hvordan man laver en atombombe, fordi jeg
ved, man ikke får svaret på det.
Den eneste grund til, at jeg ville bruge det til en samtale, er, hvis jeg har
et mærkeligt spørgsmål, eller hvis jeg ville prøve at tage pis på den.
Enkelte giver også udtryk for, at generativ AI har været en støtte ved pro-
blemstillinger, der er særligt sårbare eller private for deltageren. For nogle
handler disse samtaler om faktuelle emner, der er relevant for deres privat-
liv, såsom graviditet. Der findes også eksempler på deltagere, der spørger
teknologien til råds om deres parforhold eller stresssymptomer. Der læg-
ges vægt på, at teknologien kan give en præcis de svar, man har brug for,
når man har brug for dem, og at man ikke risikerer at blive udstillet.
Hver tyvende deltager bruger generativ AI til personlig rådgivning eller
vejledning i personlige relationer
Blandt de deltagere, der anvender generativ AI personligt, giver omkring
en tredjedel udtryk for at anvende teknologien til formål, der er private el-
ler relationelle. Det svarer til 4 % af de samlede deltagere. Nogle pointerer,
at de er glade for den hjælp, de finder i generativ AI, når det kommer til at
formulere deres tanker og følelser over for et andet menneske.
Jeg kan selv vurdere, hvor min grænse går ved brug af AI i mit per-
sonlige liv. Jeg har tidligere spurgt om rådgivning, men kun hvis jeg
er i tvivl og usikker. Det er ikke, fordi AI næsten altid har ret, men den
kan give nogle ideer og siger det, man gerne vil høre. Jeg vil nok ikke
dele alt, men jeg er også en meget åben person, så jeg ved ikke helt,
hvor min grænse går. Jeg har fx spurgt om ting som ’Kan man blive
gravid, hvis man har menstruation?’ eller ’Hvad kan jeg sige til min
kæreste, når han ikke kommunikerer nok?’ Så ja, jeg ved ikke, hvad
den grænse er.
Jeg har prøvet at bruge AI til personlige samtaler eller rådgivning, jeg
synes, at det har været en stor hjælp til rådgivning om noget i skolen.
Jeg har brugt generativ AI til personlige samtaler og rådgivning, især
når jeg har haft brug for en neutral og hurtig mening om noget, som
fx hvordan man håndterer stress eller får bedre studievaner. Det kan
være rigtig nyttigt, fordi AI altid er tilgængelig og ikke dømmer én.
Jeg har brugt det til at få den til at formulere beskeder for mig, og jeg
synes, det er okay, at man gør det, det smart nok, det bliver også bare
lidt upersonligt. Men jeg tror heller ikke, det er godt at bruge det for
meget, for så bliver ens relationer fake og overfladiske.
Ja, jeg har fået hjælp med min kæreste, men det er ret tydeligt, at
det ikke er mig, der har skrevet det, når der ingen stavefejl er, og der
er punktummer og kommaer. Det er nok okay, hvis man selv ikke kan
udtrykke sine følelser og har brug for hjælp, og man ikke helt selv kan
vurdere, hvad der er det rette at sige i en situation
52
53
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0028.png
54
Billedet er genereret med MidJourney og Adobe Photoshop
55
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0029.png
Hvad mener de unge er vigtigst, at vi tager
med i den videre debat om generativ AI?
Afslutningsvist forholdt deltagerne sig til, hvad vi skal tage med videre
i debatten om generativ AI.
6
En stor del af besvarelserne fokuserer på,
hvordan
‘man’
bør være opmærksom på at bruge generativ AI på en etisk
forsvarlig måde. Til dels afspejler disse besvarelser, at det er studerende,
der vant til at reflektere over deres egen læring, og til dels fokuserer de på
et udefineret individ, muligvis mest henvendt til sig selv og deres læring
igennem ungedialogen. Derfor er disse besvarelser undladt her. Her er,
hvad de unge har understreget som vigtigt for dem, at vi tager videre med
ind i en debat på samfundsniveau:
×
sammenlignet med besvarelserne til de spørgsmål, der er møntet på de-
epfakes. Det skal ikke forstås som en nuancering af deltagernes forhold
til deepfakes, men at 10 % af deltagerne fandt det nødvendigt at pointere,
at de ønsker et videre arbejde med det emne på samfundsplan.
×
×
×
×
×
Halvdelen af deltagerne efterspørger udtrykkeligt mere viden og
offentlig stillingtagen om brugen af generativ AI.
Hver femte deltager efterspørger specifikt rammer og regler for
brugen af generativ AI.
Hver femte deltager efterspørger specifikt undervisning og træ-
ning i korrekt brug af generativ AI på uddannelserne.
Hver tredje deltager efterspørger et større fokus på, hvordan vi
lærer at identificere og reflektere over indhold skabt med gene-
rativ AI.
Hver tiende deltager efterspørger, at vi forholder os til, hvordan
og hvorvidt generativ AI skal have en rolle i og som relationer.
Hver tiende deltager efterspørger specifikt forbud eller regule-
ring af deepfakes.
Det er vigtigt at understrege, at deltagernes besvarelser kommer til et af-
sluttende spørgsmål om, hvad de mener er særligt vigtigt at gøre os op-
mærksomme på. Ser vi eksempelvis på andelen af deltagere, der efter-
spørger forbud eller regulering af deepfakes, virker det forholdsvis lavt
56
6
Deltagerne har forholdt sig til spørgsmålet: Hvad mener du er det vigtigste, vi skal tage
med fra dine svar i den videre debat om generativ AI?
57
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0030.png
Teoretisk Grundlag
Ungeinddragelse funderet i deliberative principper og
participatorisk teknologivurdering
59
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0031.png
Baggrund for arbejdet med at styrke
det oplyste demokrati
Når denne rapport bliver udgivet, er det lidt over to år siden, at ChatGPT
blev frigivet i november 2022. Fremkomsten af det, man kalder generativ
AI, satte for alvor gang i samfundsdebatten og de kollektive forestillinger
om kunstig intelligens. Var vi på vej mod en verden, hvor mennesket ville
blive overflødigt? Hvor maskinintelligens kunne finde på at regne sig frem
til, at vores planet bedst kunne reddes ved at fjerne mennesket, og som
også ville igangsætte handlinger, der ville fjerne os fra jorden? Helt så dy-
stopiske scenarier er ikke dem, vi beskæftiger os med i denne rapport. I
stedet ser vi på, hvordan generativ AI opleves af unge hovedsageligt mel-
lem16-22 år. ChatGPT blev lynhurtigt taget i brug af denne målgruppe.
Det var især teknologiens evne til at generere tekst, der blev brugt i opga-
veløsning på uddannelserne. En udvikling, der nok kom bag på uddannel-
sessektoren og førte til en intens debat om definition af snyd, læring og
formålene med uddannelse.
Sideløbende med fremkomsten af generativ AI har der været stor bekym-
ring om de unges brug af sociale medier og platformenes påvirkning af
de unge. Især har der været fokus på både børn og unges ubehagelige
oplevelser med sociale medier og den afhængighedsskabende effekt ved
platformene. Generativ AI har også fundet vej til sociale medier. Blandt
andet har Snapchat installeret ”MyAI” i deres platform. MyAI er en såkaldt
samtalerobot (chatbot), som bruger ChatGPT til at indgå i samtaler med
brugerne på Snapchat. Meningen er, at den skal fungere som en virtuel
ven. Mange firmaer har udgivet lignende samtalerobotter som Replika el-
ler Nomi.ai.
Kombinationen af sociale medier-platforme og samtalerobotter, eller vir-
tuelle assistenter bygget ved hjælp af generativ AI, har givet grobund for
60
nye spekulationer om, hvordan teknologien kommer til at påvirke os, vo-
res samfund og demokrati. Ud over de klassiske dataetiske spørgsmål
om retten til privatliv og udfordringerne ved at overholde lovgivningen om
personoplysninger og databehandling, så rejser generativ AI spørgsmål
om, hvad der sker med vores evne til at forholde os til hinanden, skille
sandhed fra desinformation og deepfakes, afkode og forstå en tekst, bil-
lede eller kropssprog, ja, hele vores læring og dannelse som individer og
som borgere i et demokrati.
Ungedialogen om generativ AI er sat i værk for at blive klogere på, hvor-
dan unge omgås med teknologien, og for at give dem redskaber til at
reflektere over de effekter, teknologien kan have på deres læring og so-
ciale relationer i dag. Sådan at de sammen og alene kan reflektere over,
hvordan de gerne vil bruge teknologien, så det ikke bliver teknologien,
der bruger dem.
Vores teoretiske udgangspunkt for at organisere ungedialogen trækker
tråde til teori om participatorisk teknologiudvikling, det deliberative de-
mokrati og til 40 års eksperimenter med at realisere de teoretiske gevin-
ster bag i praksis. I de følgende afsnit gives en kort introduktion til teorien.
Demokratisk teknologiudvikling
Designet af ungedialogen tager udgangspunkt i forskning om, hvordan
teknologi og innovation opstår og udvikler sig, og teori om, hvordan man
kan sikre den bedst mulige teknologi og samfundsudvikling. Det er forsk-
ning, der samler sig under overskrifterne ”teknologivurdering/konstruktiv
61
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0032.png
teknologivurdering/participatorisk teknologivurdering(TA/CTA/PTA)”
7
og
beslægtet forskning i ”ansvarlig forskning og innovation”
H I J
.
Dybest set stammer tilgangen til participatorisk teknologivurdering fra et
ønske, og en vision, om at reducere de menneskelige og miljømæssige
omkostninger ved den ‘trial and error’-måde, teknologi ofte bliver udviklet
på. Det vil sige en tilgang, hvor teknologien bliver frigivet i åben konkur-
rence og ofte med et kommercielt sigte, hvorefter lovgivning og andre
indsatser må forsøge at regulere og afbøde eventuelle utilsigtede skade-
virkninger.
K
ChatGPT er et godt eksempel på, hvordan en teknologi bliver
frigivet og samfundet gjort til et stort laboratorie. Med samfundsinstitu-
tioner, forskning og lovgivning, der efterfølgende forsøger at regulere og
styre implementeringen af teknologien væk fra de mest skadelige effek-
ter. Den måde at opdele udvikling og regulering af teknologi på kan virke
naturlig. I praksis er denne opdeling en historisk konsekvens af den magt,
fortællingen om teknologisk udvikling og fremskridt har haft til at forme
opbygningen af vores demokratiske institutioner og universiteter.
L
At no-
get er på en bestemt måde, betyder ikke, at det skal være på den måde,
eller at den måde er den eneste rigtige måde at organisere den organi-
satoriske og innovative udviklingskraft i et demokratisk samfund på. Den
krise, som både demokratiske institutioner og det etablerede videnssam-
fund står over for, viser med al tydelighed, at der er noget ved, hvordan
tingene er organiseret på i dag, der ikke længere fungerer optimalt.
Fra et demokratisk synspunkt er udfordringerne ved, at teknologiudvik-
lingen foregår uden for demokratisk kontrol, at det bliver svært at sty-
re teknologien mod samfundets interesser. I stedet bliver det hensyn til
profit og andre forretningsmekanismer, der styrer valg bag ved design og
funktion af ny teknologi. Et eksempel er sociale medier, der fungerer ef-
ter fastholdelsesmekanismer uden hensyntagen til kvaliteten af indhold,
men alene med det formål at maksimere dataindsamling og reklame. Det
giver udfordringer med nye former for kriminalitet, racisme, hadtale, de-
sinformation og andre former for skadeligt indhold. Mekanismer, der for
7
Med flere nuancer, men de nævnte er dækkende for vores formål i denne rapport.
62
Billedet er genereret med MidJourney og Adobe Photoshop
63
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0033.png
alvor bliver demokratisk problematiske, når vi som samfund bliver afhæn-
gige af privatejede digitale infrastrukturer, som det i høj grad er tilfældet i
dag. Som samfund har vi mistet magten til at forme teknologien efter de
værdier, vi ønsker fællesskabet skal fungere efter. Det kan vi forsøge at
ændre. Nogle af mekanismerne er lovgivning, udvikling af retningslinjer,
støtte til alternative teknologier og facilitering af dialog og oplysning på
tværs af de siloer, udvikling, brug og regulering af teknologi normalt be-
finder sig i.
deliberativt demokrati, som løb fra april 2021 til maj 2022. Her fik omkring
700.000 borgere på tværs af EU mulighed for at samtale og bidrage til
EU’s politik.
Q
Under Belgiens formandskab for EU organiseredes også en
borgersamling om AI. Her fik 60 udvalgte borgere mulighed for at reflek-
tere over teknologien og komme med deres anbefalinger.
R
De deliberati-
ve idealer danner udgangspunkt for vores tilgang til ungedialogen:
×
×
Det deliberative demokratis bidrag til et stærkere oplyst
demokrati
×
Ungedialogen er en del af et større projekt med det formål at bringe viden
og demokrati tættere sammen. Det er et eksperiment i dialog på tværs af
forskning (universiteter og ekspertråd), udvikling (tech), samfundsinteres-
ser (politik og civilsamfund) og borgerne (unge i det her tilfælde). Formålet
er ikke kun at formidle viden, men at sætte ekspertviden i spil i de unges
kontekst og give indsigter i de unges refleksioner og behov tilbage til eks-
perterne. For dermed at skabe en demokratisk dialog om samfundsbehov
(i det her tilfælde de unges behov og værdier), og hvordan samfundsbe-
hov kan informere yderligere forskning og politikudvikling med det formål
at gøre generativ AI til en værdifuld demokratisk udvikling.
Forbilledet for tilgangen til ungedialogen rækker ud over teknologivurde-
ring og trækker tråde til mange års eksperimenter med at udvikle det de-
liberative demokrati i praksis og med at eksperimentere med nye tilgange
til forskningskommunikation. I Danmark har især Teknologirådet udviklet
tilgange til demokratisk inddragelse og dialog om teknologi og viden ba-
seret i den deliberative tilgang.
8 M N
Internationalt er især den irske brug
af borgersamlinger berømt. Her blev almindelige borgere bedt om blandt
andet at tage stilling til spørgsmålet om abort. Deres anbefalinger lå til
grund for en ændring af abortlovgivning i Irland.
O
I 2020 samlede OECD
et overblik over mere end 300 eksperimenter med deliberativt demokrati
i politik over hele verden.
P
Brugen af de deliberative metoder er fortsat, og
et af de større og mere kendte eksempler er ”Conference on the Future
of Europe”, som EU-Kommissionen og Europarådet stod bag. En øvelse i
64
×
×
×
Deltagere har adgang til afbalanceret information om det emne,
de skal tale om.
Der er en ligeværdig og respektfuld samtale om alle de forskellige
holdninger og viden, som deltagerne i en dialog har, og alle har
lige mulighed for få indflydelse på resultatet af dialogen.
Deltagerne er repræsentative og diverse i deres sammen-
sætning.
Deltagernes status og magt uden for det deliberative rum får ikke
indflydelse på dialogen eller på resultatet af dialogen.
At deltagerne i dialogen har det fælles bedste for øje i deres sø-
gen efter en løsning, selvom en rimelig hensyntagen til egne in-
teresser er tilladt (så længe den er fair og ikke efterlader andre i
værre situationer).
Dialogen afdækker konfliktområder og tilstræber at afdække
muligheder for konsensus og fælles beslutninger, alle kan støtte.
Det centrale argument for et mere deliberativt demokrati er, at det er med
til at styrke borgernes evne til at agere i et demokrati. Helt centralt står
træningen af færdigheder i samtaler samt øvelsen i at reflektere over vi-
den, forskellige perspektiver og holdninger til, hvad et problem består af,
og hvilke løsningsmuligheder der kunne være. Det giver også mulighed for
selvrefleksion og læring. Ved at træne det at tale respektfuldt, undersøgen-
de og nysgerrigt sammen træner den deliberative dialog en demokratisk
grundfærdighed. Samtidig gør dialogen, at borgerne får mulighed for at bli-
ve mere involverede i overvejelser, før der bliver taget en politisk beslutning.
8
Klassiske eksempler er Teknologirådets udvikling af konceptet og udførsel af Kon-
sensuskonferencen og udvikling og udførsel af flere runder af World Wide Views.
Teknologirådet er i dag en del af organisationen Democracy x.
65
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0034.png
Endelig åbner den deliberative dialog også et uset rum for læring for poli-
tik, civilsamfund og forskning. Det giver mulighed for at få et dybdegåen-
de indblik i den viden, de ressourcer og holdninger, der findes på tværs af
forskellige typer af borgere. Det kan give grobund for nye retninger både
inden for forskning og politik, idet dialogen giver indsigt i borgernes be-
hov, værdier og oplevelser af en samfundsudfordring.
befolkningen. Derfor har det været naturligt at eksperimentere med kob-
lingen af deliberativ praksis og digitale inddragelsesplatforme.
Et eksempel er platformen ”Stanford Online Deliberation”, hvor 8-15 unik-
ke brugere kan mødes i online grupperum og deliberere givne emner.
T
Platformen har haft op til 1250 personer engageret i deliberativ dialog på
samme tid. Ved at digitalisere dialogen bliver den menneskelige facilita-
tor til en moderator, og platformen overtager rollen som facilitator af dia-
logen. Stanford-modellen er sat, så deltagerne skiftes til at tale, mindre
aktive deltagere bliver opfordret til at tale mere, og platformen kan finde
og reagere på uhensigtsmæssig adfærd som hadtale eller anden chikane.
Platformen kan også håndtere flere forskellige sprog. Deltagerne i dialo-
gen kan vælge imellem at udvikle fælles konklusioner eller ej.
Taiwan er et af de lande, der har udviklet og brugt onlineplatforme til de-
liberativ dialog. Især under tidligere minister Audrey Tangs ledelse. Her
udviklede Taiwan formater til onlinedialog (”vTaiwan” og ”Join”). På vTai-
wan kan deltagere kommentere på et forslag til politik. Deltagere kan så
stemme hinandens kommentarer op eller ned, og i takt med, at processen
skrider frem, vil programmet finde de forslag, der er mest populære, og
sammensætte dem i nye forslag og finde samstemmende meninger på
tværs af grupperinger. Programmet monitorerer også debatten for chika-
ne og hadtale. Ud over de rent digitale inddragelsesformater har fx Bra-
silien eksperimenteret med at kombinere digital inddragelse med fysiske
møder
(Brasil Participativo).
U
I Brasilien har regeringen kombineret onli-
neinddragelse med fysiske møder på tværs af landet.
I Democracy x har vi arbejdet med krydsningen mellem online- og fysi-
ske møder siden 2017. Kombination giver muligheden for at bibeholde det
menneskelige møde og den undersøgende deliberative debat, hvor del-
tagerne får mulighed for at høre og forholde sig til hinanden perspektiver,
viden og holdninger. Tilgangene til deliberativ dialog og digitalisering af
denne er generelt under stor udvikling. I en artikel fra januar 2024 sæt-
ter Mikhaylovskaya mulighederne og udfordringerne op.
V
Et af de store
ønsker til en digitalisering af deliberativ dialog er muligheden for at op-
skalere og inkludere mange flere borgere i de deliberative dialoger. Både
ville det mindske udgifterne ved at samle mange mennesker på det sam-
67
Eksperimenter med online og digital facilitering af delibe-
rativ dialog
Ungedialogen er en del af en proces med det formål at forsøge at påvirke
udviklingen af generativ AI i Danmark. Ved at give unge adgang til viden
om teknologien gives de større mulighed for at reflektere over deres brug
af den. Det kan skabe forandring i den måde, teknologien bliver brugt,
som kan sprede sig og gøre, at teknologien bliver brugt bedre eller an-
derledes, end ellers ville være tilfældet. Ungedialogen står ikke alene. Den
kobles i foråret 2025 med en række policy-diskussioner. Her sætter vi de
oplevelser og udfordringer fremhævet i Ungedialogen til akademisk og
politisk debat. Hvilken ny forskning giver Ungedialogen anledning til, og
hvilke handlinger bør vi som samfund igangsætte eller gøre mere af?
Alt sammen med det formål at sprede ringe i vandet og skubbe på nye
retninger til, hvordan vi implementerer generativ AI som en teknologi,
der allerede er her. Men også for at øge den fælles læring på tværs af
aktører, sådan at vi fremadrettet begynder at udvikle teknologi ander-
ledes og begynder at tænke demokratisk kontrol og samfundsværdier
på et meget tidligere stadie af en teknologis udvikling. Endelig fungerer
ungedialogen og de tilgange, der udvikles, som baggrund for opbyg-
ning af dialogbaserede arbejdsgange for et fremtidigt nationalt videns-
råd eller netværk.
Traditionelt har øvelser i deliberativt demokrati foregået ved, at udvalgte
borgere har mødtes en eller flere gange for at tale om specifikke problem-
stillinger og gennem denne dialog er kommet frem til en position i forhold
den bedste løsning på den givne udfordring.
S
Det er både tids -og res-
sourcekrævende. Samtidig begrænser deltagelsen sig til et lille udsnit af
66
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
me sted, og det ville gøre det nemmere for deltagere, der bor langt væk
fra mødestedet, eller som ville have svært ved at rejse til mødestedet, at
deltage. Omvendt er der andre begrænsninger ved ren onlineinddragel-
se. Ikke alle er lige komfortable med at bruge digitale værktøjer, eller har
adgang til dem, og de digitale værktøjer kan også have begrænsninger for
brugere med forskellige typer af handicap. Bias i deltagerne på digitale
platforme er især udbredt, hvis deltagerne selv vælger at deltage, det vil
sige, at der ikke er en rekrutterings -eller udvælgelsesproces før dialog-
møderne. En anden central udfordring ved opskalering er, at det fratager
deltagerne muligheden for dybdegående deliberativ dialog. Løsningen er
muligvis at lade deltagerne tale sammen i AI-styrede tidsintervaller (Stan-
ford-modellen) eller bibeholde det fysiske møde i kombination med en
digital platform (Democracy x-modellen).
Et andet vigtigt kriterie for deliberativ dialog er gennemsigtighed. Det skal
være muligt at følge processen hen imod en politisk beslutning og se,
hvordan borgernes input er blevet taget med i beslutningsprocesserne.
Derudover kan digitale platforme gøre den information og viden, der ligger
til grund for dialogen, tilgængelig i flere formater. I stedet for en tekst, som
kan være en barriere for mange, kan information gøres tilgængelig som
video, oplæsning og andre formater. Endelig kan det gøre det nemmere
at følge og få indblik i den deliberative proces for medier eller andre, der
vil følge dialogen, hvis den digitale platform er designet med det formål.
Udfordringer, der kan være ved digitale platforme, og som knytter sig til
transparens, er håndteringen af persondata og potentielt personfølsom-
me oplysninger. Endelig kan det give en aktør forholdsvis meget magt,
hvis den digitale platform kun ejes eller kontrolleres et sted.
En tredje central overvejelse omhandler de deliberative idealer om lighed.
Alle deltagere i en deliberativ dialog skal have lov at give udtryk for deres
synspunkt, og ingen må føle sig presset til at støtte en bestemt holdning
eller til ikke at give udtryk for sin holdning. I og med at deliberative øvel-
ser oftest er designet med et menneske som moderator, er det at sikre
en neutral dialog et af de allersværeste elementer i en deliberativ dialog.
Facilitatorer er et dyrt element i deliberative processer, og de kan have
stor variation i graden af deres træning. I Democracy x opereres der med
et princip om at træne alle facilitatorer, før de står i en egentlig deliberativ
68
dialog, men der er stor forskel på praksis hos de aktører, der organise-
rer deliberative dialoger. Digitale platforme kan afhjælpe bias hos men-
neskelige facilitatorer på flere måder. De kan fx sættes op sådan, at alle
argumenter gives lige opmærksomhed og behandles på samme måde
i dialogen. Her kan et digitalt design være med til at sørge for, at ingen
argumenter overses og alle kommer igennem samme proces. Et andet
aspekt handler om at beskytte deltagerne mod alle former for pres for at
komme til bestemte konklusioner. Her kan der muligvis også være en god
mulighed i at lade en digital platform agere politiagent imellem deltager-
ne og slå ned på upassende udsagn. Endelig kan der være et uforløst po-
tentiale i, at digitale platforme kan modvirke de sociale mekanismer, der
gør, at det ofte er en type af mennesker, der taler mest, og fx give kvinder
og minoriteter mere taletid og sikre, at deres bidrag bliver vurderet på
samme måde som andres.
Kombination af digitale platforme og menneskelige mødesteder i delibe-
rativ dialog er under stor udvikling. Digitale platforme kombineret med AI
kan umiddelbart især hjælpe med: facilitering; at sørge for, at alle kommer
til orde på samme måde; at holde øje med den gode tone og med tiden til
hver taler; hjælpe med oversættelser, sprog og tilgangen til viden. Hvor-
dan de kombinationer udvikles i fremtiden, er et fokusområde for Viden
og Demokrati-projektet generelt og i opfølgningen på Den Nationale Un-
gedialog om Generativ AI.
69
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0036.png
70
Billedet er genereret med MidJourney og Adobe Photoshop
71
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0037.png
Metode og evaluering
Et eksperiment med fokus på at danne vidensbaserede og
raffinerede perspektiver på generativ AI
72
73
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0038.png
Baggrund for
udvikling af
ungedialogen
Den Nationale Ungedialog om Generativ AI er en del af projektet Viden &
Demokratis sociale laboratorium, der eksperimenterer med deliberative
demokratiprocesser som et middel til at demokratisere viden igennem
dialog, ikke bare mellem afsender (forsker/ekspert) og modtager (borger),
men mellem forskellige typer af viden i samfundet.
W
I denne del afdæk-
kes baggrunden for ungedialogen, de metodiske greb, der er tager i brug
undervejs, samt evalueringen af forløbet.
Workshop for unge om venskab, skole og ChatGPT
Ungedialogen er en videreudvikling af en workshop, der blev planlagt i
foråret 2024. Formålet var at få indblik i, hvordan unge mellem 15-25 år
forholder sig til ChatGPT, deepfakes, Snapchats ‘My AI’ og andre former
for generativ AI – i skolen og i deres venskaber. Med det udgangspunkt,
at vi ved, at teknologierne kommer stormende – men vi ved ikke, hvordan
de påvirker de unges liv. Deltagerne skulle ikke vide noget om eller have
erfaring med generativ AI på forhånd. Workshoppen var planlagt til at vare
fem timer på en søndag.
Erfaringen blev, at det var en svær målgruppe at engagere. Rekruttering
foregik igennem invitationer til ungdomsorganisationer, facebookgrup-
per, kontakt til efterskoler og opslag på sociale medier. Indsatsen førte
kun til få tilmeldinger, og det blev derfor besluttet at aflyse workshoppen
og gentænke formatet.
74
Billedet er genereret med MidJourney og Adobe Photoshop
75
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0039.png
Pilot på Ungdommens Folkemøde
Som indledende øvelse til at udvikle ungedialogen afholdt Viden og De-
mokrati i samarbejde med Dataetisk Råd, Dataetisk Ungeråd og Nationalt
Center for Etik pilotworkshoppen
Når det kunstige har ægte konsekven-
ser
om deepfakes på Ungdommens Folkemøde i Valbyparken, Køben-
havn, september 2024.
Til workshoppen stillede 18 gymnasieelever fra Bjerringbro Gymnasium
skarpt på oplevelser med deepfakes og de etiske dilemmaer og gråzoner,
der er for brugen af kunstigt generet video og billeder i menneskelige re-
lationer. I grupper af fem-seks blev eleverne guidet igennem en samtale
om deres erfaringer og overvejelser om brugen af deepfakes. De reflekte-
rede over udfordringer ved at kende forskel på ægte og kunstigt indhold,
hvordan det kan påvirke vores oplevelser af verden, og hvordan vi kan
handle i et demokrati.
Workshoppen
Kan man være ven med en AI?
var desuden tilrettelagt og
planlagt til at blive gennemført med 33 erhvervsstuderende, men måtte
aflyses grundet sygdom i lærerstaben. Det var desværre ikke muligt at
komme i kontakt med læreren efterfølgende, og derfor blev denne works-
hop aflyst.
Der var en generel erkendelse af, at deepfakes kan påvirke vores forhold
til medier og sociale platforme. Flere nævnte, at de fremover ville være
mere kritiske over for online-indhold og ønsker at være bedre oplyste
om emnet.
Resultaterne er opsummeret ved hjælp af ChatGPT.
Erfaringer fra pilotworkshop
Pilotworkshoppen resulterede i særligt tre opmærksomhedspunkter til
den videre udvikling af ungedialogen:
×
×
Deltagerne spurgte ikke meget ind til hinanden, og de greb ikke
hinandens pointer. Det var dermed udfordrende at få en samta-
le i gang om emnet. Det kan muligvis skyldes, at grupperne var
modereret af en voksen, de ikke kendte.
Deltagerne vidste ikke meget om emnet. De have indimellem
svært ved at relatere til udfordringerne og være kritiske uden
konkrete eksempler. På trods af at deres underviser oplevede
dem som engagerede og interesserede.
Med udgangspunkt i dette har der i udviklingen af ungedialogen været
særligt fokus på at:
Resultater fra pilotworkshoppen
×
Deltagerne kom både omkring de positive og negative aspekter ved de-
epfakes. Deepfakes blev set som en positiv hjælp i kreative og prakti-
ske formål, såsom humoristiske videoer til særlige begivenheder, læring
og filmproduktion. Teknologien kan også bruges i mediefag, satire eller
kunstprojekter, men det blev understreget, at samtykke og etisk brug er
afgørende.
Deltagerne udtrykte dog også bekymringer for privatliv og tillid, særligt
ved manglende samtykke eller misbrug i pornografi, misinformation og
identitetsmanipulation. Mange frygtede for mistillid til medierne og for
demokratiets sårbarhed over for falske nyheder.
76
×
×
×
×
Guide deltagerne i diskussionerne, således at alle får delt deres
perspektiver.
Gøre brug af eksempler med det formål at gøre emnet mere
håndgribeligt.
Skabe et godt fundament af viden, som deltagerne kan tale ud fra.
Give deltagerne information om emnet løbende og gerne, lige
inden de skal forholde sig til spørgsmålene. Der planlægges
hermed ikke med, at de læser et samlet informationsmateriale
på forhånd.
Sikre balance mellem information, eksempler, diskussion og
spørgsmål, de svarer på individuelt.
77
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0040.png
Vores Digitale Børn
Viden & Demokratis sociale laboratorium blev indledt med piloten
Vores
Digitale Børn – Hvordan skal vi som forældre forholde os til vores børns
digitale liv, og hvad siger forskningen egentlig?
i 2023. Formålet var her
at igangsætte et eksperiment med fokus på formidlingsformer og un-
dersøge, hvordan der her kan hentes inspiration fra deliberative demo-
kratimetoder.
Børn er i stigende grad påvirket af og aktive i den digitale verden. Imens
forsøger de voksne at finde balancen. Formålet med at sætte fokus på
dette emne var at starte en samtale mellem forældre og undersøge, med
input fra eksperter, hvordan de kan hjælpe deres børn til at navigere sik-
kert og ansvarligt i den digitale verden.
Forinden anden aften modtog deltagerne listen med spørgsmål fra første
aften, et dokument til at dele anbefalinger samt et par reflektionsspørgs-
mål til anden aften.
Anden aften blev planlagt omkring de spørgsmål, der blev formuleret på
første aften, og de heraf udledte kategorier. Aftenen bød på et længere
oplæg ved Anne Mette Thorhauge om påvirkning og fastholdelse. Her var
der særligt fokus på dopamin samt de forretningsmodeller, som digitale
medier og spil bygger på. Jeannette Bach Knudsen, projektleder i Gen-
vej, Forbrugerrådet Tænk, holdt et oplæg om støtte og dialog samt en in-
troduktion til de dialogværktøjer, som Genvej byder på. Der var løbende
spørgsmål fra salen under begge oplæg.
Afslutningsvis var der tid til at reflektere, først i grupper af tre-fem og ef-
terfølgende i plenum, over den viden, der blev fremlagt, og hvordan delta-
gerne ville tage den med hjem.
De spørgsmål, der faldt under kategorien
Mere Viden og Information,
blev
ikke direkte berørt på anden aften. De blev i stedet dækket i et dokument,
hvor deltagere og oplægsholdere kunne dele egne anbefalinger.
Formatet, emnet og målgruppen for Vores Digitale Børn var en anden end
til ungedialogen, men der bygges videre på de generelle erfaringer og læ-
ring herfra i udviklingen af ungedialogen. Den overordnede læring var, at
de dialogbaserede greb fungerede godt til at skabe retning for samtalen
mellem deltagere og eksperter. Dog kunne der gøres mere på rekrutte-
ringsfronten og mere for at møde den travle målgruppen der, hvor de er.
Formatet fungerede godt som en udvidelse af det klassiske ekspertoplæg,
men der var ikke noget element af politisk forankring eller anden form for
ophæng. Et ellers relevant element at tænke ind, når der eksperimenteres
med vidensdeling på tværs af forskellige typer af viden i samfundet samt
demokratisering af viden. Det har der derfor været mere fokus på det i
udviklingen af ungedialogen.
Læs mere om arrangementet Vores Digitale Børn, formatet Deltagerplanlagt
Vidensworkshop og læringen herfra på Viden & Demokratis hjemmeside
Y
.
79
Formatet – Deltagerplanlagt Vidensworkshop
Til formålet blev formatet
Deltagerplanlagt Vidensworkshop
udviklet i et
forsøg på at kombinere et mere klassisk ekspertoplæg med elementer fra
inddragelsesprocesser. Seminariet blev dermed skræddersyet til at imø-
dekomme lige netop de spørgsmål, deltagerne måtte have omkring deres
børns skærmbrug og forbrug af digitale medier. Seminariet forløb over to
aftener.
Den første aften blev indledt med inspirationsoplæg af Anne Mette Thor-
hauge, lektor ved Institut for Kommunikation på Københavns Universitet,
tidligere formand for styregruppen i Det Danske Akademi for Digital, In-
teraktiv Underholdning samt tidligere formand for Medierådet for Børn og
Unge, og Katrine Søndergaard, projekt- og udviklingskonsulent i Genvej
X
,
Forbrugerrådet Tænk.
Ud fra inspirationsoplægget havde deltagerne, i grupper af tre-fem per-
soner, til opgave at tale sig ind på, hvad de gerne ville vide mere om inden
for emnet. Første aften resulterede i en liste med spørgsmål, som efterføl-
gende blev inddelt i de fire kategorier:
Påvirkning, Fastholdelse, Støtte og
Dialog
samt
Mere Viden og Information.
78
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0041.png
Inspiration fra den deliberative demokratimetode
GlobalSay
Den Nationale Ungedialog om Generativ AI 2024 bygger på greb fra den
deliberative demokratimetode GlobalSay
Z
. GlobalSay-metoden, også
omtalt som EuropeSay-metoden, er udviklet som en del af det EU finan-
sierede projekt Human Brain Project
Æ
. Metoden består af et ubegrænset
antal dialogmøder med borgere og deres venner, familie eller kollegaer.
Dialogmøderne kører som sideløbende individuelle arrangementer, hvor
hver borger selv agerer vært og inviterer tre-syv deltagere. Dialogmøder-
ne er dermed:
×
GlobalSay som National Ungedialog – tilpasning til en uddannelseskontekst
GlobalSay-metoden blev valgt til ungedialogen, fordi den:
×
×
×
×
×
Selvorganiserede: Alle kan arrangere et dialogmøde og invitere,
hvem de vil. Ingen forudgående viden på området er nødvendig.
Tilpassede: Møderne kan foregå, hvor og hvornår det passer
værten, så længe der er internetforbindelse.
×
Gør det muligt at nå en bred gruppe af unge der, hvor de er, og
dermed nå en større gruppe end ved fx afholdelse af enkelte
workshops.
Er fleksibel og kan tilpasses rammerne i en undervisningskontekst.
Frit kan indlægges i undervisningen, når det passer den enkelte
institution eller underviser i den periode, ungedialogen er åben.
Strukturerer og faciliterer velininformerede diskussioner i et trygt
og velkendt rum.
Giver tid til at afgive individuelle svar på emner, der for nogen
kan være svære og til tider følsomme.
Tabellen nedenfor giver et overblik over, hvordan ungedialogen var struk-
tureret i EngageSuite. De tre temaer fulgte den samme struktur:
Dialogmøderne er desuden digitalt understøttede. Via den onlineplatform
EngageSuite
hjælpes deltagerne igennem processen. Platformen struk-
turerer og faciliterer dialogmødet samt indsamler input fra alle møder. In-
formationsmaterialer inkorporeres også i processen via platformen.
Platformen guider de fire-otte deltagere igennem forskellige runder med
forskellig fokus inden for det givne emne. I hver runde gives deltagerne
information om emnet og spørgsmål til gruppediskussion. Til slut svarer
hver deltager på et antal spørgsmål. Processen er designet til at facilite-
re velovervejede svar fra hver deltager, der er raffineret igennem viden
om emnet og dialog med de andre deltagere. Et dialogmøde tager om-
kring 2,5 time. Formålet er at indsamle mange borgeres input på et givent
emne, samtidig med at deltagernes holdninger processeres og raffineres
igennem dialog.
Forskellige kriterier kan sættes op omkring rekruttering af deltagere. Plat-
formen kan også fungere som en åben platform uden screening af dem,
der vælger at deltage i en dialog.
Sessioner
Indhold
Introduktion
Velkomst, samtykke til databehandling og introduktion af formatet
Indledende spørgsmål
Information om generativ AI
Tema:
Generativ AI i skolen
Tema:
Deepfakes
Tema:
Når generativ AI vikles sam-
men med personlige relationer
Information om emnet
Spørgsmål til diskussion og tid til individuelt svar
Scenarievideo
Spørgsmål til diskussion og tid til individuelt svar
Afrunding
Refleksion over læring
Evaluering
80
81
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0042.png
Informationsmaterialer og manuskripter til scenarievideoer er udviklet af
Dataetisk Råd i samarbejde med Democracy x. Der var i udviklingen her-
af særligt fokus på at finde en balance mellem de positive og negative
aspekter ved generativ AI uden at miste kompleksiteten i fremstillingen
af emnet.
Ungedialogen var første gang, GlobalSay-metoden blev afprøvet i Dan-
mark, samt første gang, den blev implementeret som metode til ungeind-
dragelse og via uddannelsesinstitutioner.
Ungedialogen varede cirka 90 minutter og var åben i perioden fra den 4.
november frem til den 29. november 2024. Eleverne gennemførte dia-
logen i grupper på cirka seks. De gennemgik informationsmaterialet om
generativ AI, så scenarievideoer med dilemmaer relateret til generativ AI
og diskuterede deres egne oplevelser og holdninger til generativ AI. Efter
hver gruppediskussion opsummerede eleverne individuelt diskussionen
og deres egne holdninger skriftligt.
Ved at deltage i ungedialogen fik eleverne:
×
×
×
Indblik i både de positive og negative aspekter ved brugen af
generativ AI samt de etiske dilemmaer, der nemt kan opstå i mø-
det med generativ AI.
Et rum, hvor de får mulighed for at forholde sig til egne erfaringer
og brug af generativ AI.
Mulighed for at bearbejde og raffinere deres holdninger gennem
dialog.
Og de bidrog med:
×
×
Indblik i unges erfaringer og holdninger til generativ AI.
De unges perspektiver i debatten om generativ AI.
Alt materiale fra ungedialogen er publiceret i kompendiet
Dialogformat
om generativ AI
Ø
.
82
Billedet er genereret med MidJourney og Adobe Photoshop
83
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0043.png
Repræsentativitet
Ungedialogen udgør et deliberativt eksperiment, hvor vi eksplorativt kort-
lægger unge danskeres brug af og tanker om generativ AI. Samtidig tester
vi potentialet i at sammenlægge deliberative workshopformater med da-
taindsamling i stor skala. Med disse formål og formatets eksperimentelle
tilgang har vi ikke efterstræbt repræsentativitet i vores deltagergruppe.
Således er ungedialogen et pejlemærke og et fundament for videre un-
dersøgelser, men ikke en statistisk sandhed for den danske befolkning.
Med ungedialogen formår vi at pege i nogle overordnede retninger for,
hvad der bevæger sig blandt unge danskere på gymnasiale- og erhvervs-
uddannelser på tværs af landets regioner.
Det er tydeligt gennem rapportens konklusioner, at der er brug for yderli-
gere stillingtagen til generativ AI og dets indtog i de unges hverdag. Væl-
ger man at inkludere de unge i den politiske proces, vil repræsentativitet
spille en langt vigtigere rolle.
men samtidig også give et svar på disse følsomme emner, som ikke kom-
mer til at ligge under for den dominerende holdning i gruppen.
Datasikkerhed og GDPR
Ungedialogen kører over Democracy x’s egen platform
EngageSuite,
og
der er hermed fuld kontrol over, hvilken data der bliver indsamlet fra del-
tagerne, samt over, hvor og hvordan den bliver delt. Alle deltageres svar
er anonyme, og alle deltagernes oplysninger og svar beskyttes hermed
bedst muligt.
Platformen er udviklet fra bunden af Democracy x. Beskyttelse af privatliv
har været et grundprincip i designet af platformen. Platformen indsamler
hermed ikke data om brugerne på platformen, og der gøres heller ikke
brug af tredjepartscookies. Når en bruger går i gang med en aktivitet,
gemmer platformen en lokalt lageret
token,
som hjælper med at gemme
brugerens session, hvis der midlertidigt mistes forbindelse til internettet.
Når aktiviteten er gennemført, bryder serveren forbindelsen til denne
to-
ken.
På den måde gemmes svar anonymt, og da der ikke kan genoprettes
kontakt, forbliver de anonyme. Hvis nødvendigt kan der tilvælges funkti-
oner til at identificere brugere. Det har det ikke været i ungedialogen, og
ingen af disse funktioner har været i brug.
Ungedialogen har I forlængelse heraf været indstillet, så den er åben for
alle, der har et link, så der ikke har været krav om identificering, godken-
delse eller log-in for at deltage. Linket er faciliteret til eleverne igennem
deres lærer.
Platformen har en
hardkodet
dialogboks til informeret samtykke, som skal
godkendes, før brugeren kan deltage i aktiviteten. Her gives der samtykke
til lokal lagring, platformens
terms of use
og privatlivspolitik.
Etiske overvejelser ved ungeinddragelse
Ungedialogen var for alle unge over 15 år. Det er en målgruppe, der på
mange måder stadig er ved at forstå den verden, de begår sig i, og dan-
ne deres egne meninger. Derudover kan alle tre temaer potentielt set
være følsomme emner for deltagerne. Det kan være emner, som er svæ-
re at diskutere da det kan være forbundet med udfordringer, eleverne
hver især sidder med – snyd i skolen eller deling af kunstige nøgenbil-
leder. Det kan tale ind i en usikkerhed omkring grænsen mellem rigtig
og forkert samt en manglende viden om konsekvenser eller accept fra
omverdenen.
Dette har haft betydning for, hvordan emnerne og viden herom fremstil-
les med et fokus på oplysning, uden at det bliver en skræmmekampagne.
GlobalSay-metoden er yderligere velfungerende til at omfavne disse føl-
somheder, da den bygger på dialog i trygge rammer, samtidig med at den
også giver mulighed for at give individuelle svar. På den måde får eleverne
mulighed for at processere og raffinere deres holdning gennem dialog,
84
85
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
Analysearbejdet
Da formålet med ungedialogen var at få indblik i deltagernes oplevelser,
erfaringer og herpå baserede holdninger til generativ AI, har der i unge-
dialogen været fokus på at indsamle kvalitative svar. Deltagerne har her-
med fået mulighed for at give længere skriftlige svar på alle spørgsmål,
undtagen de indledende og afsluttende.
Analysen af besvarelsen har bestået af en åben kodning af svarene. Efter-
følgende er koderne blevet inddelt i temaer. Analysen består hermed af
hovedkonklusioner fra de temaer samt citater til at underbygge disse og
fremhæve nuancerne.
For at kvalitetssikre de hovedpointer, der kommer til udtryk i temaerne,
samt for at give en fornemmelse af, hvor mange besvarelser der falder un-
der et tema, er der efterfølgende undersøgt, hvor mange besvarelser der
kan registreres som værende enige eller uenige med denne hovedkon-
klusion. ChatGPT (GPT-4o) er brugt til kodning, inddeling af koder i temaer
samt registrering af besvarelser, der er enige i hovedkonklusionen.
svar sammen med deres medstuderende. Dermed afspejler det komplet-
te datasæt også bedst det, der er foregået på skolerne, samt repræsente-
rer bedre det diverse landskab af studerende.
Forskellige måder at deltage på
Enkelte klasser og hold har i gennemgangen af ungedialogen tilpasset
formatet. Som udgangspunkt har alle deltagere snakket i grupper og der-
efter besvaret de skriftlige spørgsmål individuelt. Et enkelt hold har dog
besvaret de skriftlige spørgsmål sammen. Det vil sige, at i stedet for, at
der er kommet otte besvarelser ind for hver elev, er der kun kommet en
besvarelse fra alle otte. I databehandlingen er denne besvarelse dubleret
otte gange, sådan at alle otte elever er repræsenteret i datasættet og de-
res svar har samme tyngde, når de kvantificeres.
Frafald gennem workshoppen
Sortering af målgruppen
Målgruppen for ungedialogen var oprindeligt 15-25 år. I besvarelserne har
vi ramt en målgruppe mellem 16 og 42 år. De skyldes den lidt større spred-
ning i aldersgrupper på erhvervsuddannelserne (EUD) og hf-eksamen.
Seks besvarelser er fra deltagere over 25 år. De udgør dermed en lille del
af datasættet. Disse besvarelser er bibeholdt som en del af datasættet,
der ligger til grund for analysen, da de også har deltaget i gruppediskus-
sionerne og dermed har været en del af samtalerne og udformningen af
86
I datasættet ser vi et gradvist frafald af engagement blandt deltagerne.
Workshoppen er sat op som et forløb, der vejleder deltagerne gennem
elementer af læringsmateriale, diskussion, og dataindsamling. For alle
aktiviteter har vi integreret den funktion, at man skal interagere med alle
elementer, før man kan gå videre i forløbet. Fx skal deltagerne bekræfte,
at de har set et videoklip eller dannet en diskussionsgruppe, før de kan
fortsætte diskussionen. Ligeledes er alle tekstfelter, hvor deltagerne deler
deres overvejelser, obligatoriske at skrive i for at kunne gå videre. Ud over
de indlejrede funktioner har vi gennem dialog med undervisere tilpasset
87
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0045.png
Tabel 5
- Antal forståelige besvarelser for hvert spørgsmål
ungedialogen, så den kan gennemføres på 1,5 time, svarende til to sam-
menhængende undervisningsmoduler.
Disse tiltag kan dog kun være med til at højne sandsynligheden for løben-
de engagement, ikke sikre den. Vi observerer derfor (1) et gradvist frafald
af brugbare besvarelser gennem forløbet samt (2) deltagere, der vælger
at svare på nogle spørgsmål og ignorere andre.
358
352
337
348
321
316
301
291
285
270
Ungedialogen er gennemført med 361 individer, der alle har givet mindst
ét kvalitativt brugbart svar. I de ti kvalitative spørgsmål, der er indlejret i
forløbet, ser vi følgende frafaldskurve:
Brug af kunstig intelligens til databehandling
Antal forståelige besvarelser
For både den kvalitative og den kvantitative analyse af data fra ungedialo-
gen er der brugt kunstig intelligens. Formålet har været at kunne håndtere
den store datamængde såvel som at få et tættere kendskab til teknolo-
giens kvaliteter og begrænsninger. Vi har i vores analyse anvendt sprog-
modellen GPT-4o. Den er i skrivende stund OpenAI’s seneste udgave af
deres populære neurale sprogmodel. Neurale sprogmodeller kan forstås
som et avanceret statistisk værktøj, der kan beregne sandsynligheden af
det næste ord i en sprogrække baseret på en massiv tekstmængde. For
store kvalitative og kvantitative datamængder kan sprogmodeller udgøre
et brugbart værktøj. De kræver dog detaljeret og tydelig tilpasning for at
minimere risikoen for fejl.
For de to forskellige analysespor har vi haft separate tilgange som be-
skrevet nedenfor:
1
2
3
4
5
6
7
8
9
10
Spørgsmål
Med de kvalitative spørgsmål i ungedialogen har vi opbygget et rigt og
stort datasæt, som vi har valgt at analysere med GPT-4o ud fra overvejel-
ser kortlagt af Morgan (2023).
Å
For at gennemgå hele datasættet meto-
disk har vi instrueret GPT-4o i at gennemføre en kvalitativ åben kodning.
Vi har instrueret modellen i at finde dele af – eller hele – udsagn, der kan
kodes under en unik kode. Modellen er blevet instrueret i at finde så man-
ge koder som muligt for at opsamle nuancer i datasættet. For hver kode
89
88
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
har modellen fremvist et eksempel fra det originale datasæt, der eksem-
plificerer koden. På baggrund af modellens genererede koder har vi in-
strueret GTP-4o i at gennemføre en tematisk, også kendt som induktiv,
analyse. Det vil sige, at modellen har set på sine egne genererede koder
for det originale datasæt og vurderet, hvilke begreber der med høj sand-
synlighed vil kunne dække over koderne. For de genererede temaer er
tilknyttede koder oplistet, så der foregår en vægtning af temaerne.
På baggrund af GPT-4o’s genererede koder og temaer, samt deres tilknyt-
tede udsagn fra datasættet, har vi udarbejdet konklusioner inden for hvert
tema i ungedialogen. Det er disse konklusioner, der danner grundlag for
vores resultater samt grundlag for den kvantitative analyse.
For de væsentligste kvalitative konklusioner har vi tilknyttet en kvantitativ
dimension. Fx konkluderer vi, at 52 % af deltagerne oplever generativ AI
som en god hjælp i deres hverdag. I udarbejdelsen af disse kvantitative
dimensioner har vi også anvendt GPT-4o. Her har vi anvendt prompt-de-
signet
zero-shot chain-of-thought,
der gør modellen mere nøjagtig i sin
identificering af udtalelser.
AA
Vi instruerede GPT-4o til at klassificere
datasættets besvarelser i tre kategorier
(YES, POTENTIALLY YES, NO).
I
vores kvantitative opgørelser anvender vi udelukkende de udtalelser, der
er kategoriseret som YES. Ved kvalitetskontrol af modellens optællinger
kan vi konkludere, at en menneskelig gennemgang af svarene leder til et
lidt højere antal af positive besvarelser end sprogmodellens. Dermed er
de præsenterede kvantitative målinger en konservativ gennemgang af
ungedialogens udtalelser.
I brugen af GPT-4o har vi betalt for adgang til modellen og dermed også
muligheden for at tilpasse modellens behandling af data. Analyseret data
er gennemført på en GPT, der ikke tillader, at indhold bliver brugt til træ-
ning af OpenAI’s modeller. Hertil er den interne hukommelse slået fra, så
hver interaktion med GPT-4o foregår på et neutralt grundlag. Ungedialo-
gen har ikke indsamlet nogen former for personfølsomme oplysninger og
dermed ikke delt personkritisk data med GPT-4o.
90
91
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0047.png
Samarbejde med
uddannelsesinstitutioner
Ungedialogen afholdes i samarbejde med en række gymnasiale og er-
hvervsuddannelser og implementeres som en del af undervisningen, en-
ten i enkelte klasser eller på tværs af klasser og årgange.
Det er forskelligt, hvordan uddannelsesinstitutioner har gennemført un-
gedialogen:
×
×
×
uddannelseschefer og uddannelsesledere. Der har derefter været særligt
fokus på at ringe og følge op på invitationen til uddannelseschefer og ud-
dannelsesledere.
De fleste tilmeldinger er sket igennem uddannelseschefer og uddannel-
sesledere, som har haft et overblik over institutionens strategi og ønske
om at indgå i dagsordenen, og som har kunnet tilrettelægge deres delta-
gelse på tværs af hold og årgange.
Indledningsvis førte invitationerne til en del afslag på den baggrund, at in-
stitutionerne allerede fik mange henvendelser om spørgeskemaundersø-
gelser. Det førte til en justering i invitationsmaterialet, hvori læringsdelen
af ungedialogen blev fremhævet.
Læring fra rekrutteringsprocessen:
×
Enkelte lærere har tilmeldt sig med en eller flere klasser.
En har afholdt det som aftenaktivitet på skolehjemmet.
Flere har skemalagt det centralt fra for flere hold og årgange.
Det betyder også, at designet af ungedialogen er blevet tilpasset under-
vejs i dialog med skolerne. Den var blandt andet oprindeligt planlagt til
at vare to timer, men blev efter dialog med flere uddannelsesinstitutioner
skåret ned til halvanden time, så det passede ind i skemalægningen.
Gymnasier kører derudover grundforløb frem til november, hvor der der-
efter lægges nyt skema. Derfor blev det besluttet at holde ungedialogen
åben i perioden 4.-29. november 2024, så det kunne planlægges som en
del af denne skemalægning.
×
Rekruttering
Kontakt til skoler er taget igennem netværk, mail og opkald til forskellige
niveauer af ansatte på gymnasie- og erhvervsuddannelser. Rekrutterin-
gen foregik i perioden juni til november 2024. Der blev sendt invitationer
ud til i alt 247 sekretærer, undervisere, forstandere, rektorer, direktører,
92
×
Rekruttering i slutningen/begyndelsen af skoleåret er for mange
institutioner for sent.
Der var generelt stor interesse for emnet, men mange kunne
ikke deltage af andre årsager, såsom tidspunkt, deltagelse i for
mange andre undersøgelser, allerede igangværende initiativer
om emnet.
Det fungerer bedst for de fleste skoler, at rekrutteringen foregår
igennem uddannelsesledere og -chefer.
93
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0048.png
Antal deltagere i procent
Evaluering af
forløbet
Afslutningsvis blev deltagerne spurgt til, hvorvidt de oplevede at have ta-
get nye perspektiver til sig i løbet af dagen, hvilket element de fandt mest
interessant, samt om der var noget, de synes, de manglede at blive spurgt
om i ungedialogen.
I tabel 6 vises en oversigt over deltagernes oplevelse af at have taget nye
perspektiver til sig i løbet af dagen. Størstedelen af deltagerne lægger
sig nogenlunde i midten, hvilket indikerer, at de har taget nogle nye per-
spektiver til sig, men at ungedialogen ikke har ændret det store i deres
perspektiv på generativ AI. En mindre gruppe lægger sig i den lave samt
i den høje ende af skalaen med størst tilslutning i den lave ende. Dette
indikerer, at størstedelen af deltagerne ikke har taget synderligt af nye
perspektiver til sig i løbet af ungedialogen. Dette stemmer godt overens
med de skeptiske og nuancerede besvarelser modtaget i ungedialogen,
som muligvis blot er blevet bekræftet igennem informationsmaterialerne
og diskussionerne i grupperne.
Tabel 7 viser, hvad deltagerne fandt mest tankevækkende i løbet af unge-
dialogen. Der er så godt som en lige fordeling mellem informationsmate-
rialerne og de perspektiver, gruppemedlemmerne kom med. De tanker,
som deltagerne selv har gjort sig i løbet af ungedialogen, har været min-
dre interessante for en stor del af deltagergruppen. Dette indikerer, at de
deliberative elementer, både informationsmaterialerne og diskussioner-
ne i gruppen, har været berigende og bidraget til velfunderet besvarelser,
over for en klassisk spørgeskemaundersøgelse. Det ses dog også her, at
der har været stort frafald på de afsluttende spørgsmål.
Tabel 6
– I hvilken grad synes du, at du har taget nye perspektiver til dig i løbet
af dagen?
21
%
19
%
16
%
11
%
9
%
6
%
8
%
5
%
4
%
7
Har ikke
svaret
0
1
2
3
4
5
6
Skala fra
0 (slet ikke)
til
7 (i høj grad)
Tabel 7
– Hvad synes du var mest tankevækkende i dag?
Informationsmaterialerne
35
%
De tanker, jeg selv kom frem til
17
%
De perspektiver, mine venner og
klassekammerater havde
34
%
Har ikke svaret
14
%
Antal deltagere i procent
94
95
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0049.png
Som det sidste spørgsmål bliver deltagerne spurgt, om der er noget, vi
har glemt at spørge dem om, hvortil størstedelen af deltagerne svare nej.
Enkelte (ni deltagere eller under) tilføjer:
×
×
×
×
×
×
×
×
×
Ungedialogen fungerede godt (ni deltagere).
Spørgsmålene var for ens hele vejen igennem (to deltagere).
Generativ AI blev fremstillet for problematisk (en deltager).
At generativ AI er en god hjælp (en deltager).
At vi kunne have spurgt til sjove oplevelser med generativ AI (to
deltagere).
Mere information om, hvordan det kan bruges i undervisningen,
ville have været godt (to deltagere).
Vi kunne spørge til, hvordan deltagerne har det (to deltagere).
Vi kunne godt have haft noget med om klimaet (en deltager).
Det kunne være spændende med noget om den AI, vi bruger i
hverdagen uden at opdage det (en deltager).
Oplevelsen af, hvor let tilgængelige formatet og materialerne var for un-
derviserne at sætte sig ind i, var dog blandet. Nogle meldte tilbage, at det
var let tilgængeligt og nemt at sætte eleverne i gang, andre oplevede, at
det var omfangsrigt og krævede mere tid for underviserne at sætte sig ind
i.. Her ville et mere samlet og helt kort overblik over processen og emnet
have været brugbart.
En del undervisere meldte tilbage, at det for mange grupper ikke tog helt
så lang tid som planlagt, og at der var mange, der brugte en time frem for
den planlagte halvanden time. To hovedårsager blev fremhævet:
×
×
Dette giver et overordnet indtryk af, at deltagerne har været tilfredse med
elementerne i ungedialogen.
Det, at ungedialogen var selvfaciliteret, distancerede lærerne i
forløbet og gjorde det dermed svært for dem at gå ind og holde
eleverne til ilden.
Eleverne, særligt de yngre, kunne godt have svært ved at forstå
abstraktionsniveauet i spørgsmålene, og for mange betød det,
at de havde svært ved at se forskel på spørgsmålene. Det var
dog en hjælp, at de kun snakke om det i grupperne.
Tilbagemelding fra uddannelsesinstitutionerne
Den overordnede tilbagemelding fra de deltagende uddannelsesinstitutioner
var positiv. Format og indhold blev oplevet som interessant og meningsfuldt.
Oplevelsen var, at eleverne var gode til selv at styre formatet og til at gennemgå
de forskellige elementer. En institution have valgt at gennemføre forløbet med
alle deres samfundsfagsklasser, som er vant til at indgå i selvstyrende forløb.
Det fungerede godt at sidde i grupper på cirka seks elever, og alle fik sagt
noget i diskussionerne. Det at udpege et gruppemedlem til at facilitere
gruppen igennem de forskellige dele i ungedialogen samt rammesætnin-
gen igennem forløbet blev også fremhævet som positive elementer, som
deltagerne tog til sig og brugte.
Det virkede desuden også godt at have plads til individuel refleksion un-
dervejs, når deltagerne skulle reflektere og skrive individuelle svar.
96
Oplevelsen af manglende variation i spørgsmålene førte også til, at delta-
gerne følte, at de svarede de samme ting igen og igen.
En institution meldte derimod tilbage, at deltagerne havde toget godt imod
formatet, og at de studerende havde talt uafbrudt i to timer. De deltagere
var allerede i gang med et forløb om AI på deres uddannelsesinstitution.
Derfor havde de et andet udgangspunkt for at deltage i ungedialogen. Der
var større variation i alder på denne gruppe end gennemsnittet.
I den mere lavpraktiske ende oplevede nogle deltagere, at EngageSui-
te-platformen var længe om at loade ungedialogen. For nogle af delta-
gerne flere minutter. Der var dog ikke problemer, da siden først var færdig
med at loade. Underviserne var informerede om, at det kunne tage læn-
gere tid end vanligt at loade ungedialogen grundet sikkerhedsforanstalt-
ningerne på platformen, og det blev ikke oplevet som et større problem.
Nogle ord, som fx ‘opgave’, passede ikke helt ind i EUD-deltagernes hver-
dag, og der skulle bruges lidt tid på at oversætte.
97
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0050.png
98
Billedet er genereret med MidJourney og Adobe Photoshop
99
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0051.png
Referencer
A
FN’s Børnekonvention (1989)
Conven-
tion on the Rights of the Child.
Web:
https:/
/www.ohchr.org/en/
instruments-mechanisms/
instruments/convention-rights-child
F
https:/
/www.uvm.dk/-/media/filer/
uvm/aktuelt/pdf24/november/
241120-generativ-kunstig-intelligens-
paa-gymnasiale-uddannelser.pdf
Børns Vilkår (2024) Børns liv med
sociale medier. Web:
https:/
/bornsvilkar.dk/wp-content/
uploads/2024/05/Boern-og-unges-
liv-paa-sociale-medier_enkeltsidet.pdf
Red Barnet (2024) Børn og unges er-
faringer med digitale krænkelser og
andre ubehagelige oplevelser online.
Web:
https:/
/sletdet.redbarnet.dk/
wp-content/uploads/2024/09/Boern-
og-unges-erfaringer-med-digitale-
kraenkelser-og-andre-ubehagelige-
oplevelser-online-rapport-2024.pdf
Von Schomberg (2012) 'Prospects for
Technology Assessment in a frame-
work of responsible research and inno-
vation ' in: M. Dusseldorp and R. Bee-
croft (eds).
Technikfolgenabschätzen
lehren: Bildungspotenziale trans-
disziplinärer Methoden,
Wiesbaden:
Vs Verlag.
I
B
Børne Rådet.
Børnerådet arbejder for
mere og bedre børneinddragelse.
Web:
https:/
/www.boerneraadet.dk/
vi-arbejder-for/boerneinddragelse/
CONNECT (2022)
Open-ended sce-
narios – Participatory and Responsive
Science Education.
Web:
https:/
/www.connect-science.net/
wp-content/uploads/2023/12/
Brochure-for-the-Methods_SCREEN_
Connect_jr_20231122.pdf
Digitaliseringsministeriet (2024) Stra-
tegisk indsats for kunstig intelligens.
Web:
https:/
/www.digmin.dk/digitalisering/
nyheder/nyhedsarkiv/2024/dec/
ny-strategisk-indsats-skal-bane-vej-
for-kunstig-intelligens-i-danmark
Styrelsen for undervisning og kvalitet
(2024) Generativ kunstig intelligens på
gymnasiale uddannelser. Web:
G
Richard Owen, Phil Macnaghten, Jack
Stilgoe, Responsible research and in-
novation: From science in society to
science for society, with society,
Sci-
ence and Public Policy,
Volume 39,
Issue 6, December 2012, Pages 751–
760,
https:/
/doi.org/10.1093/scipol/
scs093
von Schomberg, R. (2013). A Vision of
Responsible Research and Innova-
tion. In
Responsible Innovation
(eds. R.
Owen, J. Bessant and M. Heintz).
https:/
/doi.org/10.1002/9781118551424.
ch3
Schot, J., Rip, A. (1997) The past and
future of constructive technology as-
sessment.
Technological Forecasting
and Social Change,
Volume 54, Issues
2–3,1997, Pages 251-268,
https:/
/doi.
org/10.1016/S0040-1625(96)00180-1
Schot, J., Rip, A., (1997) The past and
future of constructive technology as-
sessment.
Technological Forecasting
and Social Change,
Volume 54, Issues
2–3,1997, Pages 251-268,
https:/
/doi.
org/10.1016/S0040-1625(96)00180-1
M
Participedia (2022) Participatory
Consensus Conferences, Web:
https:/
/participedia.net/method/157
Teknologirådet (n/a) The World Wide
Views method. Web:
https:/
/wwviews.org/the-world-wide-
views-method/
Laffoy, K.M. (Ed.). (2017) First report
and recommendations of the Citizen’s
Assembly: THE EIGHTH AMEND-
MENT OF THE CONSTITUTION. Web:
https:/
/citizensassembly.ie/wp-content/
uploads/2023/02/FirstReport_
EIGHTAMENDMENT.pdf
OECD Deliberative Democracy
Database (2023) OECD Database
of Representative Deliberative
Processes and Institutions. Web:
https:/
/airtable.com/
appP4czQlAU1My2M3/
shrX048tmQLl8yzdc
Europa-Kommissionen (2022)
COM/2022/404 final.
Web:
https:/
/eur-lex.europa.eu/
legal-content/EN/TXT/?uri=CELEX:
52022DC0404
101
N
J
O
C
K
P
D
H
L
Q
E
100
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0052.png
R
beEU (2024) A citizens’ view of artifi-
cial intelligence within the EU. Web:
https:/
/europeanunion.diplomatie.bel-
gium.be/en/citizens-panel-ai-issues
OECD (2021)
Innovative Citizen Partic-
ipation and New Democratic Institu-
tions: Catching the Deliberative Wave,
OECD Publishing, Paris,
https:/
/doi.
org/10.1787/339306da-en.
Stanford Crowdsourced Democracy
Team (2024) Online Deliberation
Platform, Web:
https:/
/stanforddeliberate.org/
Governo Federal Brasil (2024)
Um país
com a cara do seu povo.
Web:
https:/
/brasilparticipativo.presidencia.
gov.br/
Mikhaylovskaya, A. Enhancing Delib-
eration with Digital Democratic Inno-
vations.
Philos. Technol.
37, 3 (2024).
https:/
/doi.org/10.1007/
s13347-023-00692-x
Viden & Demokrati (2021). Web:
https:/
/videnogdemokrati.dk/
X
Genvej. Genvej – til dit barns digitale
liv. Web:
https:/
/www.genvej.org/
Viden & Demokrati.
Vores Digitale
børn.
Web:
https:/
/videnogdemokrati.dk/
vores-digitale-boern/
AA
Y
S
Wei, J., Wang, X., Schuurmans,
D., Bosma, M., Xia, F., Chi, E., ...
& Zhou, D. (2022). Chain-of-thought
prompting elicits reasoning in large
language models.
Advances in neural
information processing systems, 35,
24824-24837.
Viden & Demokrati (2021). Web:
https:/
/videnogdemokrati.dk/
BB
Z
T
GlobalSay.
Europe Say on AI.
Web:
https:/
/tekno.dk/method/
europe-say-on-ai/?lang=en
Human Brain Project. Web:
https:/
/tekno.dk/project/
teknologiraadet-i-eus-forskningsflag-
skib-human-brain-project/
Dialogformat om generativ AI. Viden
& Demokrati. Web:
https:/
/videnogdemokrati.dk/
?page_id=728
Morgan, D.L. (2023). Exploring the
Use of Artificial Intelligence for Qual-
itative Data Analysis: The Case of
ChatGPT. International Journal of
Qualitative Methods, 22.
https:/
/doi.
org/10.1177/16094069231211248
Æ
U
Ø
V
Å
W
102
103
BUU, Alm.del - 2024-25 - Bilag 211: Henvendelse af 31/7-25 fra Democracy x om anmodning om foretræde for udvalget om generativ AI
3053814_0053.png
Om Viden og Demokrati
Projektet Viden & Demokrati
er et samarbejde mellem
Democracy x og TrygFonden.
Projektet udforsker feltet
mellem viden og demokrati
og interaktionen herimellem.
Projektet handler om:
×
×
×
forståelsen for videnskabens rolle i samfundet og i politik.
anvendelsen af viden i hverdagen og i politiske sammenhænge.
at sikre en sund, offentlig debat og at sikre grundlaget for gode,
kollektive beslutninger baseret på den bedst tilgængelige viden.
Formålet er at:
forstå, hvordan viden bliver brugt i samfundet; udvikle tilgange
til dialog mellem forskning og samfund; og endeligt påbegynde
opbygningen af et dansk netværk, der kan løfte kompetenceud-
vikling inden for vidensformidling.
Læs mere på
videnogdemokrati.dk
BB