Erhvervsudvalget 2021-22
L 146 Bilag 2
Offentligt
2547228_0001.png
Advokatrådet
Konkurrence- og Forbrugerstyrelsen
KRONPRINSESSEGADE 28
1306 KØBENHAVN K
TLF.
33 96 97 98
DATO: 24. januar 2022
SAGSNR.: 2022 - 137
ID NR.: 793088
[email protected]
og [email protected]
Høring af forslag til lov om regulering af sociale medier
Ved mail af 20. december 2021 har Konkurrence- og Forbrugerstyrelsen anmodet om
Advokatrådets bemærkninger til ovennævnte forslag.
Advokatrådet ser det overordnet som positivt, at der arbejdes for at forbedre
retsstillingen for personer, der kan betragtes som ofre for ulovligt indhold online.
Potentiel indskrænkning af ytringsfrihed
Imidlertid går lovforslaget efter Advokatrådets opfattelse for langt på nogle punkter.
Det fremgår således af lovforslaget, at en tjenesteudbyder, som er omfattet af
lovforslaget, som udgangspunkt inden for 24 timer efter en anmeldelse skal fjerne
ulovligt indhold, hvis dette kan gøres uden nærmere undersøgelse. Hvis det kræver
nærmere undersøgelse, er der en frist på 7 dage til at træffe afgørelse. Imidlertid skal
tjenesteudbyderen, hvis fristen på 24 timer ikke overholdes, oplyse anmelderen om,
hvorfor indholdet kræver nærmere undersøgelse.
Samtidig indeholder lovforslaget en meget bred definition af ”ulovligt indhold”, idet
det ikke kun omfatter straffelovsovertrædelser, men alle forhold, der strider mod
gældende dansk ret. Det vil sige forhold, som ikke nødvendigvis er ukomplicerede at
afdække for f.eks. udenlandske tjenesteudbydere.
Desuden lægges der i lovforslaget op til, at tjenesteudbyderne kan pålægges store
bøder for overtrædelse af loven. Bøderne beregnes således med udgangspunkt i
tjenesteudbydernes omsætning.
Det er Advokatrådets opfattelse, at disse forhold tilsammen medfører en risiko for, at
tjenesteudbyderne, for at være sikre på ikke at overtræde loven, også fjerner indhold,
som ikke er ulovligt.
[email protected]
www.advokatsamfundet.dk
1
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0002.png
Advokatrådet
Der er således en risiko for, at lovforslaget reelt kan medføre en utilsigtet
indskrænkning i ytringsfriheden, hvilket Advokatrådet finder meget betænkeligt.
Digitale meddelelser
Det fremgår af lovforslagets § 15, stk. 1, at en digital meddelelse anses for at være
kommet frem, når den er tilgængelig for adressaten for meddelelsen. Det synes at
fremgå af lovforslagets forarbejder, at bestemmelsen er inspireret af § 10 i lov om
digital post.
Imidlertid forudsætter lov om digital post, at det er obligatorisk for borgere og
virksomheder at have en digital postkasse til brug for modtagelse af post fra det
offentlige, og retsvirkningen gælder kun post, der er sendt via denne løsning. Det er
ikke tilfældet i dette lovforslag, hvor det fremgår af bemærkningerne, at reglen gælder
enhver skriftlig kommunikation, der sker digitalt, herunder via e-mail, via den
offentlige digitale postløsning eller på anden digital vis.
Det er Advokatrådets opfattelse, at det er retssikkerhedsmæssigt særdeles betænkeligt,
at offentlige myndigheder kan sende meddelelser med retsvirkninger på denne måde
til virksomheder, uden at virksomhederne ved, hvordan der kommunikeres.
Lovforslaget i sin nuværende form betyder, at Konkurrence- og Forbrugerstyrelsen i
princippet kan sende pålæg – eller andre meddelelser med afgørende frister – til
virksomheder via Twitter, Messenger eller via en e-mail et tilfældigt sted i
virksomheden – og disse meddelelser vil blive anset for at være kommet frem, når de
er tilgængelige for virksomheden.
På den baggrund skal Advokatrådet foreslå, at lovforslaget på dette punkt ændres. I
stedet kan det overvejes at udarbejde en regel om, at digitale meddelelser, der er
fremsendt via et it-system, som er fastsat i medfør af lovforslagets § 15, stk. 3, anses
for at være kommet frem, når den er tilgængelig for adressaten i det pågældende it-
system.
Lovteknik
Det er desuden Advokatrådets opfattelse, at lovforslaget rent lovteknisk indeholder
nogle uhensigtsmæssigheder.
Således fremgår det af lovforslagets § 2, stk. 9, at loven ikke berører ”de regler, der
skal betragtes som lex specialis, og gælder ikke i det omfang, hvor andre regler
fastsætter strengere krav”. Lex specialis er en fortolkningsregel, som gælder på
ulovbestemt grundlag, hvorfor det er overflødigt at lovgive herom. Desuden giver
eftersætningen om strengere krav anledning til usikkerhed om, hvilke regler, der
finder anvendelse. Dels giver det usikkerhed i forhold til, hvad der skal forstås ved
strengere krav, og dels kan det give usikkerhed i forhold til lovgivning, som kan siges
at indeholde bestemmelser, som både indeholder ”mildere” og strengere krav end
nærværende lovforslag.
[email protected]
www.advokatsamfundet.dk
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0003.png
Advokatrådet
Desuden fremstår lovforslaget noget uigennemskueligt, idet forslaget indeholder
mange krydshenvisninger til bestemmelser, som udgør undtagelser til andre
bestemmelser. Advokatrådet skal opfordre til, at man rent lovteknisk overvejer, om
lovforslaget kan udarbejdes uden alle disse krydshenvisninger.
Med venlig hilsen
Andrew Hjuler Crichton
Generalsekretær
[email protected]
www.advokatsamfundet.dk
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0004.png
Fra:
Til:
Emne:
Dato:
Astrid Haug
Susanne Aamann; Louise Due Dirksen Cifuentes
Kommentar til høring: Lovforslag om regulering af sociale medier
18. januar 2022 11:34:09
Hej Louise og Susanne,
jeg er ikke en del af den officielle høringsliste (dog medlem af TechDK, Djøf), men tillader
mig at skrive med input til loven alligevel.
Jeg vil gerne pege på fire ting, som jeg mener kan forbedres i loven:
1. I platformenes afrapportering, jf. lovens kap. 3, bør indgå, hvor mange
dansksprogede moderatorer de har ansat (antal årsværk), og hvor disse geografisk
er lokaliseret (som minimum land). En af de stor udfordringer synes at være
manglen på dansksprogede moderatorer.
2. Loven bør indeholde en solnedgangsklausul på fx 12-15 måneder. Her skal loven
så vurderes ift., om den har den ønskede effekt og ikke har utilsigtede negative
konsekvenser, og evt. gen-vedtages. Alternativt til en solnedgangsklausul bør loven
som minimum evalueres efter en given periode. Dette er en da første love på
området i Danmark, og derfor omgærdet med en vis usikkerhed ift. om, den får
den ønskede effekt.
3. Kap. 3 paragraf 8 pkt. 2: I skriver om algoritmer - her mener I vel snarere kunstig
intelligens? Algoritmer bruges ift. hvilket indhold brugerne ser, mens KI bruges ift.
at finde ulovligt indhold.
4. Det er uklart, om loven kun vedrører opslag, eller også dækker kommentarer? Fx
hvis man som bruger får slettet sin kommentar af Facebook.
Samlet set er jeg dog meget positivt overfor dette lovforslag, som virker gennemtænkt og
ikke mindst tiltrængt.
Se evt. min seneste klumme i Politiken, hvor jeg omtaler loven:
https://politiken.dk/viden/Viden_og_Tech_analyser/art8562016/Løsningen-ligger-lige-for-
hvis-horrible-delinger-skal-undgås
Mange hilsner
Astrid Haug
astridhaug.dk
Twitter
LinkedIn Instagram
Tel. +45 30258035
Podcast: Tech me higher
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0005.png
Bog: UNMUTE dit digitale lederskab
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0006.png
January 2022
LinkedIn Submission to the Danish Competition and Consumer Authority on the Proposed Social
Media Law
LinkedIn welcomes the opportunity to comment on Denmark’s proposed Law on Regulation of Social
Media (the “Proposed Law”). We share the
Authority’s
view that technology companies play an important
role in reducing illegal content online. LinkedIn is committed to working with Danish policymakers to
promote online safety and agrees that companies like ours should take meaningful steps to ensure that
people don’t misuse their services to harm others.
Providing a
safe, trusted,
and
professional
environment for LinkedIn members is one of our key
priorities. LinkedIn is a real identity social media platform for professionals and the content that is
posted, shared, or advertised on LinkedIn reflects the nature of our network. This means that LinkedIn
members are usually aware that their actions on LinkedIn directly reflect on their professional brand.
LinkedIn is different from many other platforms in that the content members share on LinkedIn becomes
part of their professional identity - it can be seen by their boss, colleagues, potential business partners,
recruitment firms, and future employers. Given this audience, our members are more likely to limit their
activity to their professional areas of interest and we typically see lower levels of engagement on non-
professional content.
To provide our members a safe, trusted, and professional experience, LinkedIn regularly invests in and
updates our policies, systems, and infrastructure. For example, we maintain and regularly update our
Professional Community Policies (PCPs), which clearly outline the types of content that have no place on
LinkedIn. Additionally, to help make our content moderation process more transparent, we communicate
with users who report content and members whose content has been reported to identify and explain our
content moderation decisions.
Although we support regulatory efforts to reduce illegal content online, we urge Danish authorities to
consider the following in connection with the Proposed Law:
1.
Regulation should be flexible to allow for a harmonized approach to protecting users
The internet is borderless by design and its user base is highly mobile. Movement across borders is not
only commonplace today, but it is considered a fundamental personal right of European Union citizens
within the EU. As a result, online content regulation should be flexible, allowing providers to adopt safety
measures that are accessible, consistent, understandable, and easy for users to navigate across borders.
1
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
In this regard, as the Authority will be aware, the EU is at an advanced stage in its deliberations on the
Digital Services Act (“DSA”) which foresees the introduction of a new regulatory framework for
providers across the internal market. LinkedIn is actively engaged in that legislative process. Given the
DSA will likely come into effect next year and will be directly applicable in EU Member States, we
encourage Danish authorities to avoid the introduction of new or competing regulatory frameworks that
will fragment the internal market for users and providers. However, if Denmark decides to proceed with
the Proposed Law before the DSA takes effect, we recommend the inclusion of a sunset clause to ensure
no duplication or inconsistencies with the DSA when it comes into place.
Further, we would respectfully call on the Authority to avoid introducing overly prescriptive requirements
(like the country-specific reporting notice requirements outlined in §4, Stk.2, 2 - 4) and instead focus on
the policy objectives to be achieved and allow providers to develop the tools necessary to meet the
requirements of the Proposed Law. In this way, the Authority will ensure legislation is future-proofed and
will allow providers to tailor solutions to their specific platform, whilst ensuring compliance with the
spirit and provisions of the law.
To ensure users can easily and consistently report content regardless of their location, we encourage
Danish authorities to avoid requiring providers to include country-specific information in notices
associated with the reporting process (like those listed in §4, Stk.2, 2 - 4). Keeping these notices simple
and consistent is in our users’ interest. Moreover, we believe that Danish authorities (rather than private
companies) are best positioned to ensure any information outlining how to contact the police or initiate a
criminal complaint remains accurate. However, if authorities require providers to disclose this
information, we recommend doing so elsewhere, such as within the provider’s Help Centre.
2.
Regulation should strike the appropriate balance between the need for safety, transparency,
and protection of user privacy
While we strive to make content decisions quickly, we do not want to prioritise time over accuracy. With
this in mind, we believe the Proposed Law should follow the DSA in requiring providers to make content
decisions promptly and without undue delay, rather than within specific deadlines (like those listed in §5).
Doing so will help avoid creating a system in which providers are either incentivized or feel pressured to
over-remove content from their services in order to avoid any risk of non-compliance. Moreover, because
the complexities associated with moderating content make it difficult to accurately predict in advance
how long the decision-making process will take, it would not be practical or useful to provide users exact
turnaround timelines at the time they report a piece of content (§4, Stk.2, 1).
Additionally, although we agree that providers should be accountable where they consistently fail to
respond to content reports within a reasonable timeframe, the Proposed Law’s requirement that providers
proactively inform the Authority about content decisions that take longer than 7 days (§5, Stk.5) presents
significant privacy and safety concerns that outweigh the potential safety benefits of doing so.
Specifically, requiring providers to proactively disclose details about reported content which has not been
found to be illegal and absent a court order is highly invasive of user privacy. Such reporting also would
make the content moderation process unnecessarily complicated and lead to delays.
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
3.
The scope of the Authority’s power to request information/impose sanctions should be clearly
defined and proportional/reasonable
In our view, several sections in the Proposed Law lack necessary definitions and are not proportional to
the law’s objective. For example, while we support establishing dialogue between providers and the
Authority, the requirement that providers give the Authority detailed contact information of an individual
employee who must respond to inquiries within 48 hours are in our view neither proportionate nor
expedient (§9). Instead, we would suggest that providers be required to ensure that functioning
communication channels exist between the providers and the Authority and that there are no undue delays
in responses.
Under Chapter 5 of the Proposed Law, Danish authorities may (a) compel providers to disclose to the
Authority information about illegal content on their platforms, and (b) publish the Authority’s analysis of
such information. The Proposed Law, however, does not clarify which types of information Danish
authorities may demand or publish. In our view, the Proposed Law should be aligned with DSA and
given the significant privacy interests implicated, it should be revised to clarify the types of data the
Authority may collect and publish under Chapter 5 and to specify that Danish authorities may not use
their authority under Chapter 5 to gather user personal data or the contents of communications absent the
requisite court order or other legal process.
4.
Provider immunity for good faith compliance
We encourage Danish authorities to make clear that providers will be immune from liability under Danish
law for (a) any action they take in reasonable, good-faith belief that such action is consistent with their
obligations under the Proposed Law; and (b) where a provider decides not to remove content based on a
reasonable, good-faith belief that the Proposed Law permits it to take such action.
5.
Timelines for implementation should be realistic
The Proposed Law sets a rather short deadline for implementation (§19), particularly since a few provisions
will require changes that might take longer to implement; hence, we would like to call for a somewhat
longer implementation period. In this regard, the different types of sanctions as outlined in Chapter 8 of the
Proposed Law lack proportionality in our view, and particularly the combination of a short implementation
timeline and the Authority’s proposed ability to impose daily fines are concerning and not proportionate.
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0009.png
21. januar 2022
Til Konkurrence- og Forbrugerstyrelsen
Sendt pr. mail til
Louise Cifuentes
[email protected]
og Susanne Aamann
[email protected]
Dansk Journalistforbunds høringssvar vedrørende udkast til lovforslag
om regulering af sociale medier.
Dansk Journalistforbund, DJ, takker for henvendelsen af den 20. december 2021,
og skal hermed fremkomme med sit høringssvar vedrørende det ovennævnte
udkast til lovforslag.
DJ er overordnet positiv over for lovforslagets krav om, at de større tjeneste-
udbydere skal pålægges at etablere nogle enkle og lettilgængelige funktioner og
procedurer for anmeldelse, efterprøvelse, oplysningsforpligtelse samt afgørelse og
eventuel fjernelse eller blokering.
Lovforslaget pålægger tjenesteudbyderne at fjerne ulovligt indhold indenfor nogle
relativt korte tidsfrister kombineret med nogle betydelige bøder i tilfælde af over-
trædelser af fristerne.
Fra DJ’s side tvivler vi på, at disse tidsfrister er realistiske at efterleve i den virkelige
verden. Vi forudser, at tjenesteudbyderne – for at være på den sikre side – vil
justere deres procedurer og systemer til at overreagere og overregulere og i den
forbindelse uundgåeligt vil komme til at fjerne en hel del lovligt indhold.
Det kan den enkelte tjenesteudbyder gøre med henvisning til sine egne interne
retningslinjer, som er undtaget for den klageadgang, der ligger i lovforslaget.
Dét er yderst kritisk. For i betragtning af de store sociale mediers centrale placering
for mange menneskers daglige kommunikation, så vil en sådan overregulering være
et hårdt anslag mod ytringsfriheden, og en potentiel forværring af en situation, som
vi allerede har set talrige eksempler på: Tekst og billeder, som er fuldt lovlige
ytringer, men som prompte bliver fjernet fra de sociale medier.
Det er et selvstændigt kritikpunkt fra DJ’s side, at lovforslaget som ovenfor nævnt
undtager tjenesteudbydernes interne retningslinjer for klageadgang mv.
DJ er yderst tilfreds med, at indhold fra massemedier i medieansvarsloven er
undtaget fra regulering i henhold til lovforslaget i det omfang massemediet og
indholdet herfra er underlagt et redaktionelt ansvar i medfør af medieansvarsloven.
1/2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0010.png
Her er der imidlertid fortsat en risiko for, at en tjenesteudbyder kan fjerne stof fra et
redaktionelt medie blot med henvisning til, at indholdet strider mod tjeneste-
udbyderens egne interne retningslinjer. Dermed vil mediet i de fleste tilfælde ikke
kunne få efterprøvet tjenesteudbyderens afgørelse.
Lovforslaget bør derfor justeres, således at opslag fra redaktionelle medier er
omfattet af mulighederne for oplysning og efterprøvelse, uanset hvilken begrundelse
der blev givet for at fjerne indholdet.
Hvis dette høringssvar giver anledning til yderligere spørgsmål eller kommentarer,
står DJ gerne til rådighed, mail [email protected].
Venlig hilsen
Hans Jørgen Dybro
politisk konsulent
2/2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0011.png
Mediernes Hus
Kalkbrænderiløbskaj 4
2100 København Ø
+45 33 97 40 00
[email protected]
www.danskemedier.dk
Til Konkurrence- og Forbrugerstyrelsen
Sendt elektronisk til
Louise Cifuentes
[email protected]
og Susanne Aamann
[email protected]
21. januar 2022
Høringssvar vedr. Lov om regulering af sociale medier
Danske Medier har med tak modtaget Konkurrence- og Forbrugerstyrelsen høringsbrev af 20. decem-
ber 2021 med opfordring til at fremkomme med bemærkninger til udkastet til forslag Lov om regule-
ring af sociale medier.
Generelle bemærkninger
Danske Medier finder det grundlæggende positivt, at regeringen tager yderligere skridt til at be-
grænse omfanget af ulovligt indhold på
”sociale
medier” ved at pålægge udbydere af sådanne tjene-
ster krav om at etablere de nødvendige funktioner og procedurer for anmeldelse, efterprøvelse, op-
lysningsforpligtelse til relevante parter, sagsbehandling, afgørelse og evt. fjernelse eller blokering in-
den for højst 24 timer i ukomplicerede tilfælde.
Foreningen bakker ligeledes op om forslagets krav om, at tjenesteudbydere skal aflægge gennemsig-
tighedsrapporter, der
skal være ”ubegrænset til rådighed”
på tjenesteudbyderens websted herunder
for forskere og journalister.
Danske Medier finder generelt, at der skal tilsigtes størst mulig åbenhed om sociale mediers ind-
holdsmoderation, både for at sikre at lovgivningen er effektiv, samt at den ikke har utilsigtede nega-
tive effekter fx som følge af en over-blokering af indhold eller at platformene omgår retten til efter-
prøvelse af især redaktionelt indhold ved at nedtage indhold med en henvisning til platformens ret-
ningslinjer i stedet for, at indholdet skulle være ulovligt.
Hensynet til massemedier
For Danske Medier er det af helt afgørende betydning og stor vigtighed, at forslaget indeholder sær-
lige hensyn til presseudgivere i § 2
Stk. 8:
”Indhold
fra massemedier i medieansvarsloven er undtaget
fra denne lov, i det omfang massemediet og indholdet herfra er underlagt et redaktionelt ansvar i
medfør af medieansvarsloven.”
Foreningen deler i den forbindelse Erhvervsministeriets synspunkter, som fremgår af bemærknin-
gerne:
”Mange websteder tilbyder i dag deres brugere en interaktiv kommunikationsmulighed, som er en se-
kundær accessorisk del til den primære funktion af webstedet. Det drejer sig f.eks. om websteder, som
primært indeholder journalistisk- eller redaktionelt indhold, men også har en kommentarsektion, der
tilbyder brugere at dele meddelelser. Det er Erhvervsministeriet vurdering, at disse interaktive
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
kommunikationsmuligheder mellem brugere ikke kan anses for at falde ind under definitionen af kom-
munikationsplatform, da de ikke er den primære funktion, men i stedet den sekundære funktion af
webstedet. Kommentarsektionen i en onlineavis vil således f.eks. udgøre en sådan accessorisk funk-
tion, i forhold til den primære tjeneste, nemlig offentliggørelsen af nyheder under udgiverens redaktio-
nelle ansvar.”
(side 22)
”Det
er Erhvervsministeriets vurdering, at der vil være tale om unødvendig dobbeltregulering, hvis
indhold fra massemedier, som er underlagt redaktionelt ansvar i medieansvarsloven også skal omfattes
af lovforslaget. Det foreslås derfor, at massemediers sider og opslag på sociale medier omfattet af me-
dieansvarsloven skal undtages fra lovforslagets anvendelsesområder. Den foreslåede bestemmelse skal
forstås i sammenhæng af de foreslåede forpligtelser for tjenesteudbydere om at oprette en procedure
for behandling af anmeldelser i den foreslåede § 4. Tjenesteudbydere vil med den foreslåede undta-
gelse af indhold fra massemedier således ikke være forpligtet til at oprette denne procedure på indhold
fra massemedier.”
(fra side 23 nederst)
”Indhold
fra massemedier, herunder massemediers sider på sociale medier og opslag fra den pågæl-
dende side, ikke er omfattet af loven, hvis det pågældende massemedie og indholdet er underlagt et
redaktøransvar i medfør af medieansvarsloven. Det indebærer, at tjenesteudbydere af kommunikati-
onsplatforme omfattet af lovforslaget, ikke i henhold til denne lov kan pålægges at fjerne eller blokere
sådan indhold.”
(side 64)
Efterprøvelse og genplacering af massemediers indhold
Det fremgår af forlaget, at tjenesteudbyderen skal oprette en procedure for efterprøvelse, af afgørel-
ser, når en bruger har fået fjernet eller blokeret indhold efter §5 (ulovligt indhold). Erfaringer fra an-
dre lande med en lignende lovgivning viser imidlertid, at nedtagning med henvisning
til ”ulovligt ind-
hold” kun udgør en meget lille andel.
I langt de fleste tilfælde henvises til at indholdet strider mod
platformens egne retningslinjer. Danske Medier finder det stærkt bekymrende, at især de meget
store platforme dermed let kan slippe uden om at tilbyde f.eks. presseudgivere ret efterprøvelse.
Konkret anbefaler Danske Medier derfor, at lovforslaget ændres således, at massemediers sider og
opslag på sociale medier er omfattet af de samme forpligtigelser for tjenesteudbyderen
uanset
hvil-
ken begrundelse platformen lægger til grund for en fjernelse eller blokering.
Med venlig hilsen
Danske Medier
Mads Brandstrup
Adm. direktør
Side 2 af 2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Høringssvar: Forslag til Lov om regulering af sociale medier
Indledende bemærkninger
Konkurrence- og Forbrugerstyrelsen har ved e-mail af 20. december 2021 anmodet om
Dataetisk Råds eventuelle bemærkninger til udkast til lovforslag om regulering af sociale
medier.
Dataetisk Råd rådgiver regeringen og Folketinget om dataetiske spørgsmål, herunder i
forbindelse med ny lovgivning. Rådets høringssvar er derfor begrænset til dataetiske
spørgsmål.
Lovforslaget pålægger tjenesteudbydere af kommunikationsplatforme at etablere
procedurer for håndtering af klager over ulovligt indhold inden for specifikke tidsfrister,
herunder skal ”åbenlyst ulovligt” indhold være fjernet inden for 24 timer. Lovforslaget
vedrører sociale platforme, gruppebeskedtjenester samt en række store dating- og
gaming-platforme med over 100.000 danske brugere årligt. Ulovligt indhold defineres ikke
særskilt i lovforslaget, men omfatter enhver form for indhold, der strider mod gældende
dansk ret.
Det følger videre af forslaget, at tjenesteudbydere skal etablere en procedure for
efterprøvelse af deres afgørelser og har oplysningsforpligtelse over for både anmeldere og
de brugere, som får fjernet eller blokeret deres indhold.
Samtidig pålægges tjenesteudbyderne at offentliggøre rapporter, der indeholder
beskrivelser af deres system til at kontrollere indhold samt statistiske opgørelser over, hvor
meget og hvor hurtigt indhold fjernes i henhold til dansk lov.
Forslaget skal ses i sammenhæng med de aktuelle initiativer på EU-niveau. Blandt andet
har Kommissionen fremlagt forslaget ”Digital Services Act” og ”Digital Markets Act”, der skal
færdigbehandles i 2022. EU har også vedtaget fremlagt forordningen ”Terrorist Content
Online Regulation”, der træder i kraft 7. juni 2022, og som pålægger tjenesteudbydere at
fjerne terrorrelateret indhold inden for en time efter anmeldelse fra myndigheder.
Nærmere om lovforslagets forhold til dataetisk
Lovforslaget handler grundlæggende om at skærpe de gældende krav om, at visse private
virksomheder skal fjerne ulovligt indhold, således at indholdet skal fjernes hurtigere og efter
en mere sikker og gennemsigtig procedure. Da det må anses for i strid med god dataetik,
hvis virksomheder ikke fjerne ulovligt indhold, berører lovforslaget dataetiske spørgsmål.
Dataetisk Råd skal gøre opmærksom på, at lovforslaget kun vedrører ulovligt indhold, og at
det også kan være uetisk, såfremt virksomheder ikke fjerne lovligt indhold. Det kan således
være uetisk ikke at fjerne indhold så som tekst- eller billeddata, som en person ikke
(længere) ønsker tilgængeligt på f.eks. et socialt medie. Det kan også være uetisk at
formidle f.eks. hadsk tale eller andet indhold, som har en negativ indvirkning på borgere
eller samfund. En dataetisk tilgang til f.eks. sociale medier rejser således en række
vanskelige spørgsmål også om ytringsfrihedens grænser.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0014.png
Efter Dataetisk Råds opfattelse må det anses for uetisk ikke at fjerne ulovligt indhold. Rådet
anerkender derfor, at man fra politisk side forholder sig til indhold på sociale medier mv. og
sikrer rettigheder i forbindelse med behandling af klager om indhold. Ligeledes finder
Dataetisk Råd det hensigtsmæssigt, at der med lovforslaget fastlægges forpligtelser og
processuelt ansvar for regulering af indholdet på sociale medier, og at lovforslaget
omfatter såvel danske som internationale tjenesteudbydere.
Lovforslagets overordnede formål ses at være i overensstemmelse med dataetiske
principper, men lovforslaget rummer også elementer, som Dataetisk Råd har
betænkeligheder ved og som bør overvejes nærmere.
I det følgende gennemgås nogle dataetiske aspekter af lovforslaget med udgangspunkt i
de 10 principper for dataetik, som Dataetisk Råd arbejder ud fra, og som kan findes i
publikationen Dataetik – Sådan gør du.
2. Dataetisk Råd har følgende bemærkninger til lovforslaget:
Retssikkerhed
Som dataetisk princip handler retssikkerhed om, at data skal behandles med respekt for
grundlæggende retssikkerhedsmæssige garantier. I lovforslaget kommer det til udtryk i
form af de rettigheder, som brugeren har i forbindelse med tjenesteudbyderens behandling
af klager over indhold.
Lovforslaget vil bidrage til at skabe større klarhed om forpligtelsen for sociale medier mv. og
til at etablere klagesystemer med visse minimumskrav. Rådet finder det vigtigt, at
rettighederne både gælder for dem, der klager over indhold, og for dem, hvis indhold der
klages over. Rådet finder det derfor relevant som foreslået at give mulighed for at appellere
afgørelser om at fjerne eller fastholde indhold, der er blevet klaget over.
Rådet peger på, at det også kan overvejes om forslaget bør indeholde regulering af
ansvaret for store tjenesteudbydere i relation til borgere, som lider skade, såfremt åbenbart
ulovligt indholdet ikke fjernes rettidigt samt i forhold til brugere, hvis indhold fjernes
uretmæssigt.
Lovforslaget stiller også krav om, at tjenesteudbydere skal implementere de nye krav på en
måde, der er nem og tilgængelig for brugeren, hvilket rådet finder positivt.
Dette gælder også forslaget om at gøre det muligt for brugere at klage til Konkurrence- og
Forbrugerstyrelsen over tjenesteudbydernes proces for behandlingen af klagen.
Omvendt noterer Dataetisk Råd sig, at lovforslaget ikke etablerer et uafhængigt klagenævn
eller lignende, der kan behandle klager om at nedtage eller ikke nedtage indhold, der
menes eller ikke menes at være klart ulovligt. Det betyder, at det er op til eventuelle
skadelidte selv igennem retssager mv. at holde tjenesteudbyderne ansvarlige for
skadevoldende beslutninger. Loven indeholder ikke et klart svar på skadelidtes
handlemuligheder i den forbindelse.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0015.png
Rådet anerkender, at spørgsmålet om, hvordan man bedst sikrer brugeres retssikkerhed i
forhold til beslutninger om nedtagning/ikke-nedtagning er komplekst. Men spørgsmålet er
ikke desto mindre af relevans for sikring af ansvarlige tjenester, og rådet henleder derfor
opmærksomheden på, at brugerens retssikkerhed på dette område på nuværende
tidspunkt er svag, og at adgangen til prøvelse ikke er let.
I forlængelse af de dataetiske overvejelser omkring brugernes retssikkerhed, er det også et
dataetisk princip, at brugerne får den fornødne information til at kunne handle og gøre brug
af deres brugerrettigheder. Uanset om lovforslaget kan skabe større klarhed over
rettigheder, pligter og klagemuligheder for en del af de sociale medier mv., er det fortsat
særdeles vanskeligt for brugere og andre berørte personer at overskue disse.
Selve lovforslaget er i sig selv komplekst og vanskeligt at overskue, ligesom der f.eks.
henvises til et indforstået begreb, ”lex specialis”, ved afgrænsning af loven over for anden
lovregulering, der kan indeholde rettigheder, pligter og klagemuligheder.
Rådet finder, at lovforslaget kunne have større effekt, hvis det udbygges med en generel
informations- og vejledningsforpligtelse for Konkurrence- og Forbrugerstyrelsen i forhold til.
spørgsmål vedrørende rettigheder, pligter og klagemuligheder på sociale medier mv.
Ytrings- og informationsfrihed
I dataetisk sammenhæng drejer ytrings- og informationsfrihed om, at data skal behandles
med respekt for grundlæggende demokratiske frihedsrettigheder. Det gælder også for
behandlingen af brugergenereret data og andet indhold på sociale medier.
Regulering af indholdet på sociale medier mv. har væsentlige aspekter vedrørende ytrings-
og informationsfrihed og er principielt. Dette gælder særligt i et højt digitaliseret
demokratisk samfund, som det danske, hvor borgere, virksomheder, organisationer samt
politikere og andre meningsdannere i høj grad kommunikerer via sociale medier mv.
F.eks. kan kravet om at fjerne ’åbenlyst ulovligt’ indhold inden for 24 timer under risiko for
bødestraf i sig selv indebære, at tjenesteudbyderne af forsigtighedshensyn unødigt
begrænser brugernes informations- og ytringsfrihed. Det må anses for at være i strid med
god dataetik.
Lovforslaget og bemærkningerne hertil synes imidlertid kun ganske sporadisk at forholde
sig til sådanne principielle overvejelser, og det er ikke muligt at se, hvilke overvejelser der er
gjort, i forhold til afvejningen mellem de relevante og i nogle tilfælde modstående hensyn.
Dataetisk Råd anbefaler, at lovforslagets implikationer for informations- og ytringsfriheden
overvejes nærmere, og at det endelige lovforslag indeholder nærmere begrundelse
vedrørende dette forhold.
Gennemsigtighed
Gennemsigtighed er et generelt dataetisk princip, der handler om at sikre åbenhed og
indblik i, hvordan data bliver behandlet. Gennemsigtighed bidrager til, at vi som brugere og
samfund kan have tillid til resultaterne af databehandlingen. I lyset af den stigende rolle,
som sociale medier spiller i den demokratiske samtale, er det vigtigt, at vi kan have tillid til
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
kvaliteten af indholdskontrollen. Det er efter Dataetisk Råds opfattelse positivt, at et
væsentligt formål med lovforslaget er at fremme transparens og åbenhed, der begge er
afgørende for tillid.
Lovforslaget stiller krav om udarbejdelsen af transparensrapporter fra de tjenesteudbydere,
der er omfattet af loven. Rapporterne skal indeholde en beskrivelse af de processer, der
anvendes til at kontrollere indhold, og rapporterne kan bidrage til at kaste lys over et
arbejde, der i dag ikke er meget detaljeret viden om i offentligheden. Samtidig skal
tjenesteudbyderne inkludere statistiske opgørelser over, hvor meget indhold de fjerner
inden for forskellige tidsfrister, hvilket også er af betydning for tilliden til systemerne og
afgørende for vurderingen af omfanget af ulovligt indhold mv.
For at øge brugbarheden af rapporterne anbefaler rådet, at lovforslaget stiller flere krav til
beskrivelserne af det algoritmiske grundlag. I lovforslagets nuværende formulering skal
tjenesteudbyderne kun inkludere ”driftsprincipper”, men lovforslaget bør gå længere og
pålægge tjenesteudbyderne at beskrive de algoritmer, der anvendes i forbindelse med
indholdskontrol, ligesom det bør beskrives, hvordan de virker. Det vil også bidrage til
gennemsigtigheden, hvis tjenesteudbyderne ikke blot afgiver ”generelle oplysninger om de
anvendte træningsdata” men pålægges at skabe reel indsigt i træningsdata. Såfremt der
er bekymring for, at fuld offentliggørelse af sådanne oplysninger kan medføre, at personer
kan omgå algoritmerne eller frygt for afsløring af forretningshemmeligheder, kan
informationen eventuelt udveksles i fortrolighed med myndigheder og udvalgte eksperter.
Trods krav om transparensrapporter rejser principielle dataetiske spørgsmål sig om brugen
af algoritmer til kontrol af indhold på tjenester og i behandlingen af klager. For at styrke
tilliden bør der, som nævnt, være gennemsigtighed i forhold til algoritmers grundlag og
funktion, ligesom der bør være åbenhed omkring algoritmens begrænsninger. Dataetisk
Råd bemærker, at de algoritmiske kontrolværktøjer, der kan anvendes som led i
klagebehandling, ikke i alle tilfælde kan garanteres at have den nødvendige præcision og
kontekstforståelse til at kunne bruges ved vurderingen af ulovligt indhold.
Der er på tværs af tjenesteudbydere forskellige procedurer for indholdskontrol og efter
rådets oplysninger benytter ikke alle tjenesteudbydere såkaldte hybride systemer, der
indeholder både automatiske, algoritmebaserede værktøjer samt menneskelige
moderatorer. Der er efter rådets opfattelse ikke aktuelt fornøden sikkerhed for, at en ren
maskinel afgørelse vil have tilstrækkelig kvalitet til, at det bør overlades til
tjenesteudbyderene at vælge en ren algoritmisk afgørelsesform. Taget den store mængde
af indhold, der skal behandles på kort tid, i betragtning, vil en stor del af påklaget indhold
derfor med stor sandsynlighed blive behandlet af algoritmer, og det åbner for, at indhold
bliver nedtaget på et fejlbehæftet grundlag.
Dette forhold finder rådet generelt betænkeligt og særligt betænkeligt på områder, hvor
indholdskontrollen skal foregå i realtid og kontrollen derfor må formodes at være
fuldstændigt automatiseret, f.eks. ved kontrol af ulovligt indhold på gamingtjenester o.lign.
Dataetisk Råd foreslår, at dette forhold overvejes nærmere og behandles i det endelige
lovforslag.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Privacy
Retten til privatliv er en grundlæggende dataetisk værdi, der betyder, at behandling af data
foregår med respekt for privatlivets fred og under beskyttelse af personlige oplysninger.
Lovforslaget er også møntet på f.eks. datingstjenester, hvor indhold i modsætning til sociale
medier i høj grad forbliver privat, og hvor der er ofte tale om meget personlige samtaler.
Kontrol af indhold på sådanne tjenester indebærer, at indhold, der klages over, bliver
behandlet af et centralt system og kommer til flere personers kendskab, hvilket åbner for
mulig lækage af data. Selv om kontrol af indhold er et anerkendelsesværdigt formål, bør
lovforslaget præcisere, at implementeringen af indholdskontrol og klagemuligheder i
forhold til kommunikation på datingsider og andre rum, der opfattes som fortrolige, i videst
muligt omfang bør foregå efter privacy-by-design principper, og det bør sikres at det
involverede personale iagttager særlig tavshedspligt.
Afsluttende kommentarer
Dataetisk Råd anerkender som nævnt indledningsvist, at man fra politisk side forholder sig
til indhold på sociale medier mv. og sikrer rettigheder i forbindelse med behandling af
klager om indhold.
Rådet finder dog anledning til at bemærke, at selv om lovforslaget vil føre til klarere rammer
for indholdskontrol og brugerrettigheder især i forhold til tidsfrister, skal man ikke forvente,
at lovforslaget vil komme alle relevante problemer med ulovligt indhold på sociale medier
til livs.
De store tjenesteudbydere, som lovforslaget er rettet imod, udfører allerede i dag en
omfattende indholdskontrol med udgangspunkt i retningslinjer, som hver enkelt platform
har udarbejdet. I mange tilfælde vil ulovligt indhold allerede være omfattet af disse
retningslinjer.
Forslaget bygger på, at der ikke må gå mere end 24 timer fra et givent socialt medie
opdager åbenlyst ulovligt indhold på platformen til det er fjernet. Det betyder, at det
pågældende åbenlyse ulovlige indhold kan blive delt bredt og set de første 24 timer (og
eventuelt kopieret) af mange mennesker. Omvendt kunne en kortere tidsgrænse rejse
andre alvorlige problemstillinger om informations- og ytringsfriheden. Det er et politisk
spørgsmål, hvor hurtigt (åbenlyst ulovligt indhold) skal fjernes.
Dataetisk Råd finder desuden anledning til at fremhæve, at lovforslaget ikke adresserer
behandlingen af lovligt, men uønsket eller uetisk indhold. Det kan være indhold, der er
misvisende eller indeholder usande påstande om faktiske forhold. Det er et komplekst
spørgsmål, der bl.a. indebærer en afvejning imellem ytringsfrihed og den individuelle og
samfundsmæssige interesse i at begrænse visse typer af indhold på sociale medier mv.
Dataetisk Råd er grundlæggende enig i, at virksomheders pligt til at fjerne indhold ikke skal
reguleres med henvisning til etiske eller lignende standarder, men at der også fremover
skal reguleres ud fra, om indholdet er lovligt eller ulovligt.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0018.png
DANSK ERHVERV
Børsen
1217 København K
www.danskerhverv.dk
[email protected]
T. + 45 3374 6000
Konkurrence- og Forbrugerstyrelsen
Att.: Louise Cifuentes
Carl Jacobsens Vej 35
2500 Valby
Den 21. januar 2022
Forslag til Lov om regulering af sociale medier
Dansk Erhvervs fremsender hermed høringssvar vedr. forslag til regulering af sociale medier.
Vi bakker som udgangspunkt op om formålet om at beskytte børn og andre borgere mod ulovligt
indhold på sociale medier og vi anerkender at forslaget antages udformet under respekt for model-
len
”notice
and take down”,
der traditionel anvendes for den type af digitale tjenester som sociale
medier er en variant af. Vi forventer i den forbindelse, at lovforslaget er udformet med respekt for
de principper, der er fastlagt af EU-Domstolen i forbindelse med e-handelslovens regler herom.
Vi har dog en række forbehold, som bevirker, at vi ikke finder, at nærværende lovforslag er den
mest hensigtsmæssige måde at nå dette mål.
Generelle bemærkninger
Den teknologiske udvikling har medført en fundamental transformation af vores samfund både i
forhold til menneskers sociale liv, mulighederne for at udbrede den demokratiske debat globalt og
i forhold til erhvervslivets muligheder for at kommunikere.
Dette kan medføre behov for at opdatere lovgivning
Dansk Erhverv bifalder derfor bl.a., at e-
handelsdirektivet efter 20 år opdateres i regi af
Digital Services Act
(DSA)
og det kan også give
anledning til helt ny regulering, der tager hensyn til den digitale udvikling. Dansk Erhverv ser gode
takter i de opdaterede EU-regler, og er tilfredse med, at der fra dansk side er vist politisk vilje og
ejerskab over denne vigtige dagsorden.
Det er Dansk Erhvervs generelle holdning, at der ikke bør indføres nye regler på områder, hvor
eksisterende lovgivning allerede finder anvendelse og dette gælder også ift. europæisk regulering,
som ventes vedtaget indenfor kort tid.
Dansk Erhverv ser tre grundlæggende udfordringer med forslaget i sin nuværende form: 1) forsla-
gets tidsplan og timing, 2) Danmarks rolle i EU og 3) proportionaliteten og relevansen af de krav,
der stilles til private virksomheder i en retsstat.
For det første er tidsplanen for forslaget uheldig af flere årsager. De berørte virksomheder får
i
fald forslaget vedtages
kun ganske få måneder, måske endda kun uger, til at omstille sig til de nye
krav til rapportering, processer for håndtering af anmeldelser m.v., hvilket forekommer urimeligt,
når det samtidig bemærkes, at det forberedende arbejde begyndte helt tilbage i 2019.
[email protected]
CSJ/CSJ
Side 1/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
DANSK ERHVERV
Området er kompliceret og har derfor krævet et grundigt forarbejde, hvilket er rimeligt. Dette bør
dog også afspejles ved, at perioden fra afsluttet behandling og vedtagelse i Folketinget til lovens
ikrafttræden derfor ikke bør fastsættes til mindre end ét år.
Vi har i flere tilfælde set, at tidsrummet mellem nye reglers vedtagelse og ikrafttræden bliver min-
dre og mindre. Det er i strid med grundlæggende principper for god regulering, at de berørte virk-
somheder ikke har tilstrækkelig mulighed for at omstille sig til de nye krav, de mødes med. Og dette
kan ikke tilbagevises med henvisning til, at denne omstilling kan begynde, når et lovforslag frem-
sættes.
Vores demokratiske proces i Danmark indebærer udover høringsprocessen også behandling i Fol-
ketinget (evt. inkl. udvalg), og dermed er det eneste rimelige, at virksomhedernes arbejde med at
efterleve nye lovkrav først påbegyndes, når nye love endeligt vedtages.
Derudover er timingen af forslagets fremsættelse og ikrafttræden meget uheldig, da der på EU-
niveau efter flere års intensive forhandlinger er ved at være enighed om
DSA’en, som kommer til at
dække de væsentlige dele af dette forslag, og som kommer til at have forrang, hvilket også anerken-
des i sidste afsnit af høringsbrevet.
Hvis forslaget skal ses som en form for implementering eller vejledning til DSA, ville det være na-
turligt at afvente det endelige indhold af DSA, da de kommende trilog-forhandlingerne kan medføre
ændringer, som ikke er afspejlet i den danske lov.
Dette fører til den anden udfordring, hvor Dansk Erhverv mener, det fremsatte forslag svækker
vores position i EU. Det skyldes både, at det sender et dårligt signal til de øvrige medlemslande i
Unionen, når vi umiddelbart inden vedtagelse af fælleseuropæiske regler vælger at gå enegang med
national regulering, særligt når regeringens eget høringssvar til EU-Kommissionens åbne høring
om DSA-forslaget blandt andet fremhæver,
at DSA’en bør sikre et ægte indre marked uden lovgiv-
ningsmæssig fragmentering og med lige vilkår baseret på ensartet anvendelse, gennemførelse og
håndhævelse.
Et velfungerende indre marked er helt afgørende for velstand og vækst i Danmark og EU, og derfor
mener Dansk Erhverv, at dette signal er meget uheldigt.
I det omfang den danske lov viser sig at være en overimplementering, som dog er indenfor ram-
merne af DSA, vil en sådan overimplementering stille danske virksomheder dårligere i konkurren-
cen med virksomheder såvel indenfor og udenfor EU, hvilket ligeledes er noget, vi mener er uhen-
sigtsmæssigt.
I forhold til de krav, som stilles til de virksomheder, der driver digitale tjenester, har Dansk Erhverv
i andre dele af DSA-forslaget argumenteret stærkt for øgede krav til nye digitale forretningsmodel-
ler, når det f.eks. drejer sig om salg og formidling af farlige og ulovlige produkter med henblik på
at sikre beskyttelsen af forbrugersikkerheden og konkurrencen på det indre marked.
Side 2/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
DANSK ERHVERV
Men dette lovforslag vedrører - i modsætning til situationen med onlinemarkedspladser, der for-
midler kommercielle aktiviteter og ansvar for lovligheden af produkter fra sælgere i 3. lande
yt-
ringsfrihedsproblematikker. På dette område er der (i modsætning til produktområdet) ikke tradi-
tion for at overlade vurderinger af, om en ytring (sproglig eller billedlig) er lovlig, til virksomheder
medmindre der er tale om indhold, der indgår som en del af en reguleret medievirksomhed med
egentlig redaktion.
Ytringsfrihedsområdet er traditionelt set et meget sensitivt område, som normalt overlades til dom-
stolene. Derfor bør lovforslaget også afspejle en respekt for den meget vanskelige afvejning af yt-
ringsfriheden og retten til ikke at blive krænket. Dansk Erhverv bemærker i den sammenhæng, at
regeringens med dette forslag går imod anbefalingerne fra Ytringsfrihedskommissionen, hvilket vi
er uforstående overfor.
Vi er bekymrede for, at for unuancerede krav til hurtig fjernelse af indhold med tilknyttede ytringer,
kan føre til, at virksomheder fjerner langt mere indhold end nødvendigt for at undgå repressalier,
og dermed skades den demokratiske samtale og debat. Denne problematik er også blevet påpeget
bl.a. af tænketanken Justitia.
Netop fordi loven omhandler alle typer ulovligt indhold, vil der formodentlig være en lang række
sager, hvor lovligheden af anmeldt indhold er vanskeligt at afgøre. Dette kan imødegås ved at be-
grænse forslagets
scope
til at omhandle klart ulovligt indhold.
Specifikke bemærkninger
§2 Anvendelsesområde
Dansk Erhverv er positivt indstillede overfor, at de tjenester, som nævnes i stk. 6, 1-7, er undtaget
fra lovens anvendelsesområde.
§5 Afgørelse og tidsfrister
Det synes at være et urimeligt krav at stille virksomhederne overfor, at skulle fortage lovligheds-
vurderingerne indenfor de nævnte tidsfrister uanset hvilken type ulovligt indhold der er tale om.
Afgørelsen om lovlighed vil variere i kompleksitet, og der bør derfor skelnes mellem kravene ift.
afgørelser vedr. klart ulovligt indhold og de sager, hvor der er rimelig tvivl om lovligheden af ind-
holdet.
I forhold til rimeligheden og proportionaliteten af de angivne frister vil Dansk Erhverv henstille til,
at man tager kontakt til de statslige myndigheder som er vant til at foretage disse vurderinger; po-
litiet, anklagemyndigheder, fogedretten m.fl. for at afklare, hvor meget tid det normalt tager at fo-
retage lovlighedsvurderingerne og hvordan de prioriteres indenfor kategorier af de forskellige typer
ytringer og indhold.
Dansk Erhverv mener under alle omstændigheder, at tidsfristerne må tilpasses længden af de even-
tuelle tidsfrister i den overlappende lovgivning i DSA.
Side 3/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
DANSK ERHVERV
Hensynet til, at klart ulovligt og meget skadeligt indhold fjernes hurtigt, tilsiger også, at der gives
incitament til at tjenesteudbyderne opprioriterer disse vurderinger. På den måde, vil det indhold,
som må formodes at have de største skadevirkninger på ofrene også få forrang fremfor mindre al-
vorlige sager. Fokus på klart ulovligt indhold vil også være i tråd med DSA-teksten, som i artikel
5.1(a) henviser til åbenlyst ulovligt indhold.
Derudover er Dansk Erhverv betænkelige ved, at tjenesteudbyderne skal foretage juridiske afgørel-
ser i tilfælde, som gælder ytringer og andre områder, der er vanskelige at træffe afgørelse om. Der-
for bør forslaget udelukkende gælde klart ulovligt indhold.
§7 Efterprøvelsen
Efter stk. 9 kan tjenesteudbyderne helt undgå at foretage vurderingen om lovligheden af ind-
hold og eventuel fjernelse heraf, hvis indholdet inden vurderingen er foretaget fjernes eller blokeres
grundet andre foranstaltninger
herunder hvis tjenesteudbyderen vurderer, at indholdet er i strid
med interne retningslinjer. Dette skaber et uheldigt incitament, hvor store mængde lovligt indhold,
der deles af borgere og virksomheder, bliver fjernet af tjenesteudbyderne. Dette skader borgernes
ytringsfrihed og forringer den demokratiske samtale, der foregår online.
§8 Afrapportering
Onlinetjenester har vidt forskellige politikker, processer og problemstillinger, og meningsfuld gen-
nemsigtighed ser forskellig ud fra tjeneste til tjeneste. Med forslaget lægges der op til, at vidt for-
skellige slags platforme aflægger gennemsigtighedsrapport i samme format.
Dansk Erhverv mener, det er langt mere hensigtsmæssigt at formulere en generel, fælleseuropæisk
målsætning for, hvad der kvalificerer som gennemsigtighed og herunder acceptere fleksible forma-
ter for datarapportering i forhold til, hvad der giver mening for forskellige typer platforme.
§10 Analyser
Af forslaget fremgår, at Konkurrence- og Forbrugerstyrelsen kan kræve alle nødvendige oplysnin-
ger udleveret til brug for analyser. Dette bør præciseres og
afspejles af indholdet i DSA’en,
således
at virksomhederne har klarhed om, hvilke typer informationer, danske myndigheder kan bede dem
udlevere.
§17 Administrative bødeforlæg
Dansk Erhverv er generelt betænkelige ved administrative bøder, særligt på områder der ikke tid-
ligere har været lovreguleret og hvor der således heller ikke findes en fast bødepraksis.
Generelt i forhold til anvendelsen af administrative bøder, bemærker vi endvidere, at sanktioner
og bødeniveau
fastsættes i Danmark som alt overvejende hovedregel af domstolene.
I de helt særlige tilfælde, hvor særmyndigheder
uden involvering af politi, anklagemyndighed og
domstole
får adgang til at afgøre straffesager ved bødeforlæg, forudsættes det i tilsiger »væsent-
lige retssikkerhedsmæssige hensyn«
ifølge bl.a. Justitsministeriets lovkvalitetsvejledning bl.a.
at bl.a. sanktionsniveauet ligger fast. Tilsvarende krav gengives og uddybes bl.la. i lovbemærknin-
gerne til den nuværende bestemmelse i konkurrencelovens § 23 j indsat ved L2021 207 hvoraf
Side 4/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
DANSK ERHVERV
det bl.a. fremgår at »[...]
det [vil] være en forudsætning for at udstede et udenretligt civilt bødefo-
relæg, at der foreligger fast retspraksis for det bødeniveau, som anvendes i sagen.«
Da der endvidere er tale om særlovgivning, forventer Dansk Erhverv under alle omstændigheder,
at bøder
i overensstemmelse med almindelige danske retsprincipper
kun kan anvendes, såfremt
der er tale om groft uagtsomme eller fortsættelige overtrædelser af lovgivningen. Det bør fremgå
klart og tydeligt, af lovgivningen og af bemærkningerne.
§19 Ikrafttræden
Den foreslåede dato for, hvornår loven skal træde i kraft, ligger for kort tid efter en eventuel vedta-
gelse af forslaget. Selv med de mest optimistiske briller vil behandling i Folketinget og endelig ved-
tagelse først være på plads nogle få måneder eller uger, før virksomhederne skal leve op til de nye
krav.
Dette vil give store udfordringer for især mindre platforme, og derfor bør forslaget tidligst kunne
træde i kraft et år efter vedtagelse.
Dette rykker ikrafttræden af dette forslag endnu tættere på den forventede ikrafttræden af DSA i
Danmark, hvorfor det bør overvejes, om der er behov for at vedtage en dansk lov på et område, der
om ganske kort tid bliver omfattet af fælleseuropæiske regler.
Det synes umiddelbart er være overflødigt og udtryk for signallovgivning, hvis man vælger at gen-
nemføre på nuværende tidspunkt og med så kort frist.
Bemærkninger til lovforslaget
Det virker umiddelbart betænkeligt, når der i bemærkningerne står, at spredning af ulovligt indhold
er så alvorligt, at det ikke kan afvente den europæiske DSA, ligesom der henvises til, at flere andre
medlemslande har indført nationale regler (s. 16).
Dansk Erhverv deler ikke denne opfattelser. For
det første er DSA’en meget tæt på at blive vedtaget,
og selvom vi deler ambitionen om at bekæmpe ulovligt indhold, vil de negative effekter af dansk
regulering overskygge fordelene ved at komme de fælles regler i forkøbet. Derudover mener vi ikke,
at Danmark skal bidrage til at fragmentere det indre marked i EU ved at følge trop med de lande,
som har indført nationale regler.
Dansk Erhverv bemærker, at vi ikke har modtaget den høring af et udkast til forslaget i perioden
29. november til 3. januar (s. 53).
Vurderingen af økonomiske konsekvenser for erhvervslivet vurderes at være på under 4 mio. kr.
Dette forekommer umiddelbart lavt ud fra dialog med vores medlemsvirksomheder, og Dansk Er-
hverv mener således, at en mere retvisende vurdering vil være på sin plads.
Bemærkninger til lovforslagets enkelte dele
Et eksempel på effektive virkemidler mod spredning af ulovligt indhold er TCO-forordningen, som
træder i kraft i Danmark i juni 2022. Her skal udbydere af hosting-tjenester fjerne terrorrelateret
Side 5/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
DANSK ERHVERV
indhold med meget kort frist efter påbud fra en kompetent myndighed i EU (s. 66). Her ligger lov-
lighedsvurderingen af indholdet altså hos en kompetent myndighed, og dette princip kan med for-
del tages med i forslaget til lov om regulering af sociale medier.
Afsluttende bemærkninger
Der er mange områder, hvor vi kan tage fat
vi støtter gerne og bringer erfaringer og viden fra
vores medlemmer, som bl.a. tæller mere end 100 brancheforeninger. I september 2021 afholdt
Dansk Erhverv eksempelvis et rundbord, hvor repræsentanter fra en række ministerier, tech-virk-
somheder, spilproducenter og civilsamfundsorganisationer, der varetager børn og unges interesser,
var samlet.
Her blev der drøftet en række udfordringer bl.a. de tekniske problemer med at forhindre kendt
ulovligt indhold i at blive lagt online, markedsføring til børn og unge m.m., ligesom nogle af mulig-
hederne fx for bedre digital dannelse, positive fællesskaber online og bedre samspil mellem civil-
samfundet, erhvervslivet og myndigheder var på dagsordenen.
Dansk Erhverv er enige i vurderingen af, at dette område er vigtigt. I vores optik kan regeringens
intention om at skabe bedre forhold for borgere og virksomheder online bedre opnås ved at tage fat
i andre områder. Det kan fx være ved at komme arbejdet med implementering af
Digital Services
Act
i forkøbet og bl.a. nu begynde at se på, hvem der i en dansk kontekst kan få rollen som
trusted
flaggers,
eller ved at tage fat i nogle af de mange andre dilemmaer, som er opstået med den digitale
omstilling af vores samfund. Dansk Erhverv ser frem til at bidrage konstruktivt til dette arbejde.
Med venlig hilsen,
Christian von Stamm Jonasson
Chefkonsulent
Side 6/6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0024.png
21. januar 2022
MOKR
DI-2018-15718
Konkurrence- og Forbruger-styrelsen
Louise Cifuentes
[email protected]
og
Susanne Aamann
[email protected].
Høringssvar vedr. lovforslag om regulering af sociale medier
Først og fremmest tak for muligheden for at afgive høringssvar i forbindelse med
lovforslag om regulering af sociale medier.
I DI er vi opmærksomme på de problemer, der kan knytte sig til sociale medier herunder
udfordringer i forhold til demokrati og ytringsfrihed, ulovligt indhold og beskyttelse af
børn og unge mv.
Lovforslaget er primært afgrænset til tidsfrister for ulovligt indhold. DI er enige i, at det
er afgørende, at ulovligt indhold fjernes så hurtigt som muligt på sociale medier. Mens DI
er enige i problemstillingen, er vi ikke enige i metoden.
Når man sætter markante frister for nedtagning af ulovligt indhold, risikerer man at skade
ytringsfriheden og den demokratiske debat, fordi resultatet meget vel kan blive, at indhold
fjernes for at overholde tidsfristen og for at imødegå et bødekrav – selvom et ordentligt
gennemsyn meget vel kan vise, at indholdet er fuldt legitimt. Sat på spidsen kan det endda
lægge op til systematisk misbrug fra grupper, der søger at modarbejde bestemte typer af
indhold. Forslaget kan derfor ende med at modarbejde sit eget formål.
DI vil i stedet foreslå, at benytte de metoder til fjernelse af indhold, som man er - eller
bliver - enige om på europæisk plan i den såkaldte Digital Services Act (DSA). Her er der
bl.a. en øget anvendelse af ”trusted flaggers”, som sikres en ”fast lane” til at anmelde
ulovligt indhold og dermed fremmer en hurtig fjernelse. ”Trusted flaggers” er per
definition troværdige og nedsætter behovet for vurdering og gennemsyn hos det sociale
medie. Målet er, at denne metode kan fjerne indhold hurtigere end de frister, der lægges
op til i lovforslaget.
Generelt er det et problem, at der på området vedtages regler både på europæisk niveau
og nationalt niveau nærmest samtidigt. Det betyder, at virksomhederne får flere regelsæt
at forholde sig, og er nødt til at indføre forskellige ordninger i forskellige lande.
Fra DI’s side mener vi generelt og i øvrigt meget konkret i tilfældet ovenfor, at det er
uhensigtsmæssigt at indføre danske regler på et område, der står til at blive reguleret på
EU-niveau.
*SAG*
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0025.png
På den baggrund foreslås det, at lovforslaget udstyres med en solnedgangsklausul,
hvorefter den bortfalder, når DSA’en træder i kraft i Danmark.
I øvrigt skal der lyde en tak for et meget let læseligt lovforslag, som er klart og veldefineret.
Herunder følger de konkrete kommentarer til lovforslaget.
Anvendelsesområdet
DI havde forventet, at det alene var rene sociale medier, der var omfattet. DI formoder, at
der er konkrete og faktaunderbyggede årsager til at gaming- og dating-tjenester
inkluderes.
Omvendt er det meget positivt, at man så klart ikke inkluderer tjenester med fokus på
vare- og tjeneste-salg, såvel som sammenligningstjenester mv.
Forpligtelser
Som nævnt ovenfor er metoden med tidsfrister for nedtagning af ulovligt ikke
hensigtsmæssig. Der er risiko for, at det fører til, at der fjernes indhold, der ikke er ulovligt.
Det er et problem i forhold til ytringsfriheden og kan påvirke virksomheders
tilstedeværelse på sociale medier og herudover åbne for et potentielt systematisk misbrug
af ordningen.
I stedet kan man bruge en frist, der hedder ”uden unødig forsinkelse” som fx i e-
handelsloven. Som tidligere nævnt er metoden med ”trusted flaggers” også en meget
effektiv metode, og som desuden åbner for en større demokratisk deltagelse i vurderingen
af, hvad der er ulovligt indhold, eftersom man inviterer organisationer med i vurderingen.
For yderligere at sikre hensynet til ytringsfriheden og i øvrigt den kommercielle
tilstedeværelse på sociale medier anbefales det, at man indsnævrer området for ulovligt
indhold, dvs. specificerer, at det er klart ulovligt indhold, der skal rammes. Det kunne
være indhold om terror, beskyttelse af børn og unge mv., men måske undtage almindelige
ytringer.
Tilsyn og transparens
Øget tilsyn og transparens støttes af DI som værende gode metoder til at sikre
demokratisk kontrol med sociale medier. I forhold til det konkrete foreslåede forekommer
det, at vi kommer meget tæt på reglerne i DSA’en. DI finder det relevant at sikre så meget
ensretning som muligt i den forbindelse.
Yderligere fremgår det af § 10 stk. 2, at myndighederne kan kræve alle nødvendige
oplysninger i forbindelse med tilsynet udleveret. Her bør det tilføjes, at oplysninger, der
er stærkt personfølsomme, kun bør udleveres med en dommerkendelse.
Bødeforlæg
Det følger af § 16, at der skal lægges vægt på koncernomsætning på verdensplan ved
udmåling af bøder. DI vurderer, at det er i strid med almindelige selskabsretlige
principper at inddrage hele koncernen, hvor det er en konkret juridisk enhed, der har
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
begået en overtrædelse og alene har ansvaret herfor. I disse tilfælde bør det være
omsætningen på det konkrete forretningsområde hos tjenesteudbyderen, der er relevant
for bødestørrelsen.
Afsluttende
DI noterer, at man ikke har benyttet sig af muligheden for at introducere en ”stay down”-
forpligtelse, som bl.a. har været diskuteret på europæisk niveau. Det er en fornuftig
afgrænsning alt den stund, at en sådan forpligtelse kræver omfattende tekniske løsninger
og formentligt også stiller store krav til mandskab. Derfor er det en fornuftig afvejning at
undlade et sådan krav i lovforslaget for nu.
DI stiller sig naturligvis til rådighed i forhold til at uddybe ovenstående.
Med venlig hilsen
Morten Kristiansen, Chefkonsulent,
DI Digital
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0027.png
21. januar 2022
Rigensgade 5, kld.
1366 København K
[email protected]
+45 42 63 62 94
Til:
Konkurrence- og Forbrugerstyrelsen
Carl Jacobsens Vej 35
2500 Valby
Tlf. +45 4171 5000
Høringssvar vedr. forslag til lov om regulering af sociale medier
Foreningen Digitalt Ansvar, som er medlems- og interesseorganisation for organisationer og forskere, der
arbejder for at forebygge og bekæmpe digitale krænkelser og digital vold, har med stor interesse læst
lovforslaget og har følgende bemærkninger:
Overordnede bemærkninger
Vi deler regeringens opfattelse af, at der er et aktuelt behov for at regulere sociale medier og andre digitale
tjenester, ved at præcisere deres ansvar i forhold til at fjerne ulovligt indhold og afgive
gennemsigtighedsrapporter om moderationen.
Tid er en afgørende faktor i sager om digitale krænkelser, som eksempelvis deling af ulovligt indhold. Hvis
der ikke sættes hurtigt ind, spredes krænkende billeder og video, bedrageri rammer flere, og chikane får lov
til at fortsætte. Derfor anbefalede Digitalt Ansvar i 2019 lovgivning
1
, der forpligter sociale medier til at
fjerne ulovligt billede- og videomateriale med tidsgrænse og pligt til at offentliggøre oversigt over antal
klager, efter tysk model, som er evalueret effektiv.
2
Vi vurderer, at lovforslaget vil være med til at styrke brugernes online-beskyttelse, hjælpe ofre for digitale
krænkelser, lette politiets arbejde ved at mindske risikoen for, at sager som vokser i omfang og styrke
retten til privatliv.
Behov for at tilføje en stay down-forpligtelse
Selvom en lovsikret tidsgrænse har en stor betydning for ofre og pårørende, løser det ikke alle
udfordringerne. Ulovligt billede- og videomateriale bliver ofte uploadet på ny og delt igen og igen, også i
tilfælde, hvor en domstol har erklæret indholdet ulovligt.
Det betyder, at opgaven med at finde og anmelde ulovligt billed- og videomateriale hos ofre, pårørende og
myndigheder. Det er ofte en umulig opgave, da det ulovlige billed- og videomateriale kan deles til alle tider,
på mange forskellige sider og tjenester, som ofre eller politiet ikke nødvendigvis har adgang til, som fx
lukkede grupper.
De har store psykiske konsekvenser for ofrene, der ikke får sat et punktum i deres sag, og som risikerer at få
PTSD, depression og angst, som følge af, at kriminaliteten ikke stopper. Det skaber desuden et
1
2
Microsoft Word - Anbefalinger til lovgivning_Digitalt Ansvar nov. 2019.docx
www.bmjv.de
1 af 5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0028.png
21. januar 2022
Rigensgade 5, kld.
1366 København K
[email protected]
+45 42 63 62 94
ressourcekrævende Sisyfosarbejde for politi, anklagemyndighed og domstole, som skal efterforske og
behandle nye sager om allerede velkendt indhold. Der kan gøres mere end der bliver gjort i dag.
I EU er der eksempelvis kommet nye regler om copyright for musik, film og andre værker. Dermed er
sociale medier og andre digitale tjenester i dag forpligtet til at gøre, hvad de kan for at forhindre, at et
ophavsretligt beskyttet værk, bliver tilgængeligt på tjenesten igen, hvis den digitale tjeneste allerede én
gang har modtaget en
anmodning om at fjerne værket. Et såkaldt ”notice and stay down”-princip.
3
Derfor anbefaler vi, at regeringen tilføjer krav om, at sociale medier forpligtes til at forhindre genuploads
og deling af ulovligt indhold, som sociale medier og andre digitale tjenester allerede er blevet bekendt med.
En stay down-forpligtelse vil betyde at:
Ofrene kan få sat punktum. Det mindsker risikoen for psykiske mén.
Politi, anklagemyndighed og domstole får færre sager med mange gerningspersoner, fordi ulovlige
billed- og videomateriale ikke vil kunne blive delt på ny og sprede sig i samme omfang som i dag.
Børn, unge og voksnes ret til privatliv styrkes.
Stay down
kendes fra EU’s ophavsdirektiv, som forpligtede digitale tjenester efter et ”notice and stay
down”-princip.
Forpligtelsen går ud på, at en digital tjeneste, skal gøre, hvad den kan for at forhindre, at et
ophavsretligt beskyttet værk, som fx et musiknummer, bliver tilgængeligt på tjenesten igen, hvis tjenesten
allerede én gang har modtaget en anmodning om at fjerne værket. Princippet er indført i dansk ret med
ophavsretslovens § 52 c.
Bemærkninger om anvendelsesområdet
§ 2, stk. 1 siger, at loven alene gælder tjenester med over 100.000 brugere. I den dansk sammenhæng er
dette meget store tjenester. Derfor anbefaler vi, at kravet om antal brugere nedsættes til 30.0000.
§ 2 stk. 2-3 lægges der op til, at loven ikke skal omfatte lukkede grupper med under 5000 brugere, samt
gruppebeskedtjenester, der tillader et deltagerantal på under 5000 deltagere. Dette begrundes i hensynet
til privatlivets fred (side 23).
5000 er en meget høj grænse. Begrundelse i privatlivets fred kan deraf virke misvisende, da grupper eller
fora med op mod 5000 brugere er en større forsamling. 5000 mennesker i en park eller til et fysisk møde,
vil vel som udgangspunkt heller ikke blive anset som særlig privat. Til sammenligning betragtes det som et
brud på ophavsretten, hvis nogen deler indhold, som de ikke har ret til, med almenheden, som ligger langt
under 5000 personer.
Beskyttelsen af retten til privatliv er relevant. Retten omhandler også beskyttelse imod at racistiske,
truende eller usande påstande, der fremsættes mod din person samt retten til, at private billeder ikke
uhindret kan deles. Beskyttelsen af privatliv omfatter derudover også, at ulovlig deling skal stoppes og
efterforskes samt retsforfølgelse af gerningspersoner.
3
Reglerne er nu implementeret i dansk ret, jf. ophavsretslovens § 52 c.
2 af 5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0029.png
21. januar 2022
Rigensgade 5, kld.
1366 København K
[email protected]
+45 42 63 62 94
Spørgsmålet er imidlertid, hvis privatliv der bør vægtes højest i dette tilfælde. Vi mener, at hensynet til ofre
og pårørendes privatliv bør vægtes højere end brugeres ret til at dele fx ulovlige billeder i et mere eller
mindre privat rum i grupper med op mod 5000 deltagere. For ofre der udsættes for, at deres nøgenbilleder,
billeder af overgrebsmateriale, drab og ulykker deles mod deres vilje i lukkede grupper eller via
gruppebeskeder, oplever en alvorlig krænkelse af deres privatliv.
Derfor anbefaler vi, at grænsen sættes væsentligt ned.
Lovforslaget lægger også op til, at en række digitale tjenester bliver undtaget af reglerne, som fx online-
encyklopædier og tjenester, der primært er beregnet til formidling eller salg af varer/tjenesteydelser.
Vi mener, at man bør overveje at inkludere flere tjenester, da ulovlig aktivitet og ulovlig deling kan foregå
via sådanne tjenester. Som eksempel kender vi flere sager, hvor der bliver delt indhold ulovligt på tjenester
som annoncelight.dk
Generelt må man dog forvente, at mindre tjenester har relativt færre sager om ulovligt indhold og deraf
godt kan løfte opgaven med at modtage klager og fjerne ulovligt indhold.
Tjenesteudbyderens forpligtelser - anmeldelsesprocedure
Det er særdeles positivt, at lovforslaget sætter krav om, at anmeldelsesproceduren skal være nem, enkel og
altid til rådighed jf. § 4.
Ligeledes er det positivt, at lovforslaget ikke stiller krav om, at den person der klager, skal være registreret
på den pågældende kommunikationsplatform, gruppebeskedtjeneste, datingtjeneste eller gamingtjeneste
med en profil (side 72).
At klagemuligheden er nem og brugervenlig er en forudsætning for, at loven opnår den ønskede effekt. En
af de udfordringer, vi ser i dag, er netop, at fx forældre til brugere ikke kan klage fordi, de ikke er oprettet
som brugere på et socialt medie. Derudover har anmeldelsesproceduren vist sig at være det svage punkt
ved lignende lovgivning i Tyskland, hvor de sociale medier på meget forskellig vis valgte at implementere
anmeldelsesproducerer i 2018, hvoraf ikke alle var lige brugervenlige.
Vi anbefaler derfor, at de gode betragtninger og krav, som fremgår af bemærkningerne om design og
tilgængelighed i lovforslaget, følges op af tilsyn således, at Konkurrence- og Forbrugerstyrelsen som en af
sine første prioriteringer sikrer, at det er nemt, enkelt og altid muligt at klage.
Herunder bør det overvejes, om Konkurrence- og Forbrugerstyrelsen skal udforme en standardformular,
der kan bruges til at indgive en klage. Det er vigtigt, at en anmeldelse ikke kun henviser til på forhånd
definerede klageområder, da man risikerer at udelukke klager over ulovligt materiale, som udbyderen ikke
har medtaget i sin formular.
At det ikke kun er den forurettede, men alle der kan anmelde ulovligt indhold og aktivitet, er med til at
skabe et fælles ansvar på nettet, som ikke til fulde er til stede i dag. Som udgangspunkt er det i dag den, der
udsættes for noget strafbart, der skal reagere. Der er endnu ikke en fælles norm på nettet, som vi kender
fra eksempletvis trafikken, om at hjælpe, hvis man ser nogen, som har brug for hjælp.
3 af 5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0030.png
21. januar 2022
Rigensgade 5, kld.
1366 København K
[email protected]
+45 42 63 62 94
§ 4, stk. 2: ”
Ved anmeldelse efter stk. 1, skal tjenesteudbyderen omgående kvittere for modtagelse af
anmeldelsen.”
Hvad er ligger der i
omgående?
Er det inden for 24 timer eller længere tid?
Her anbefaler vi en klar tidsfrist.
Afgørelse og tidsfrister
Tid er en afgørende faktor. Hvis der ikke sættes hurtigt ind, spredes krænkende billeder og videoer,
bedrageri og bedrageriforsøg rammer flere, og chikane får lov til at fortsætte uhindret. Det betyder, at
sagerne vokser i omfang, ofte med flere gerningspersoner og ofre til følge.
Derfor støtter vi tidsgrænser, som giver ofre en lovsikret garanti for, at sociale medier reagerer hurtigt og
ikke medvirker til en forbrydelse ved ikke at gribe ind. Tidsgrænserne sammenholdt med et krav om
klagemulighed, udfylder et væsentligt hul, som følger af det 20 år gamle E-handelsdirektiv. Her er
tidsangivelse og anvendelsesområdet nemlig uklart og det er ligeledes uklart, hvordan brugere kan rette
henvendelse til tjenester, og hvad informationstjenesterne skal gøre for at fjerne ulovligt indhold og stoppe
ulovlig aktivitet.
I §5 Stk. 7 lægges der op til at forpligte tjenesterne til at opbevare materiale og kontooplysninger i 90 dage
efter de har fjernet eller blokeret indholdet. Derudover skal tjenesterne forlænge opbevaringen, hvis
politiet vurderer, at efterforskningen kræver det. Det skal her påpeges, at det er erfaringen, at der nogle
gange går mere end tre måneder (altså de 90 dage) før politiet tager kontakt til eksempelvis sociale medier
for at sikre bevismaterialet
eksempelvis i stalkingsager.
I denne sammenhæng er det endvidere en smule uklart, hvilken form for materiale/information
tjenesterne, udover det ulovlige materiale, bliver pålagt at opbevare. Vores erfaring er, at digital
stalking ofte foregår via falske profiler, hvilket vil tale for, at tjenesterne udover det ulovlige
materiale, også forpligtes til at sikre/opbevare både profilnavn, profillink og loginoplysningerne bag
upload, således politiet har mulighed for at indhente disse og finde frem til gerningspersonen.
Bødestørrelse:
Vi deler ministeriets
vurdering af, at ”overtrædelser af de foreslåede bestemmelser i loven kan svigte
tilliden til de omfattede tjenesteudbydere og have væsentlige skadefølger for ofre af ulovligt indhold på de
omfattede platforme og tjenester.” (side 45-46).
Vi deler ligeledes opfattelsen af, at bøderne skal have en afskrækkende effekt, så bødestørrelsen ikke er
ubetydelig for den virksomhed, som ikke overholder loven. Bødeniveauet er her meget centralt, da flere af
de virksomheder, som loven vil omfatte, er blandt de allermest profitable virksomheder i verden.
4
4
Se listen: Her er verdens største selskaber | www.euroinvestor.dk Nyheder - www.euroinvestor.dk
4 af 5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0031.png
21. januar 2022
Rigensgade 5, kld.
1366 København K
[email protected]
+45 42 63 62 94
I den forbindelse virker det logisk, at lovforslaget tager
udgangspunkt i ”procentdel af tjenesteudbyderens
årlige koncernomsætning på verdensplan i det foregående regnskabsår korrigeret med andelen af
tjenesteudbyderens
brugere i Danmark”, som der står i bemærkningerne.
(s. 46-47).
Det anbefales dog, at der udarbejdes et skema med et par regneeksempler, hvor procentsatserne er omsat
til danske kroner for fx Alphabet (Google) og Meta (Facebook).
Klage til Konkurrence- og Forbrugerstyrelsen
§ 13. ”Erhvervsministeren fastsætter regler om adgangen til at klage over en tjenesteudbyders
manglende efterlevelse af §§ 4
– 7 og om indgivelse af klager, herunder om formkrav til klagen.”
Det er vigtigt, at der gøres en særlig kommunikationsindsats fra styrelsens side om, at loven er
kommet og borgerne har en klageadgang, hvis de ikke oplever, at deres indberetning håndteres
korrekt og i tide.
Med venlig hilsen
Digitalt Ansvar, Børns Vilkår, Børnerådet, Red Barnet, Dansk Stalkings Center, Dansk Kvindesamfund,
Offerrådgivningen, Mediesundhed for Børn og Unge, SSP-samrådet, Tech & Childhood og
juraprofessor Sten Schaumburg-Müller.
5 af 5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0032.png
21. januar 2022
Regulering af sociale medier
Høringssvar
Forslag til Lov om regulering af sociale medier
Ved en mail af den 20. december 2021 har Konkurrence- og Forbrugerstyrelsen anmodet Det
Kriminalpræventive Råd om eventuelle bemærkninger.
I den anledning skal DKR udtale, at vores mission er at skabe tryghed ved at oplyse om og forebygge
kriminalitet.
DKR skal først og fremmest erklære sig enig i, at der er behov for en tidssvarende lovgivning på området, så
indholdsmoderationen på sociale medier ikke primært baserer sig på tjenesteudbydernes frivillige
foranstaltninger.
Vi deler regeringens opfattelse af, at der er et klart behov for at pålægge de sociale medier et større ansvar
for at stoppe spredningen af ulovligt og skadeligt indhold på deres platforme og øge gennemsigtigheden.
Jo længere tid krænkende materiale ligger på internettet, desto større risiko er der for, at det bliver delt til
skade for ofrene, og at antallet af gerningspersoner øges. Derfor er det vigtigt, at de sociale medier nu, som
udgangspunkt, bliver forpligtet til at fjerne ulovligt indhold senest 24 timer efter anmeldelsen er modtaget.
Det er vores opfattelse, at dette er et vigtigt bidrag til at forebygge digitale krænkelser. Der skal dog
afsættes de fornødne ressourcer hos de offentlige myndigheder, herunder politiet, til opfølgning,
efterforskning og retsforfølgelse.
Reguleringen af sociale mediers indholdsmoderation og gennemsigtighed er et godt skridt på vejen mod en
tryggere kultur på nettet. DKR skal også pege på vigtigheden af, at den lovmæssige regulering suppleres af
forebyggelsestiltag, der retter sig mod brugerne af platformene, særligt børn og unge.
Vi ved fra det fysiske miljø, at tilskuere kan forebygge kriminalitet. Det samme synes at gøre sig gældende
på nettet. Derfor anbefaler DKR, at man arbejder for at aktivere tilskuere til digitale krænkelser.
Forskning peger på, at unge ofte undlader at handle på digitale krænkelser, fordi de har svært ved at
vurdere situationens alvor. Når de sociale medier nu forpligtes til at tage større ansvar for at handle på de
anmeldelser, de modtager, er det vigtigt, at de unge kan vurdere, hvornår indhold bør anmeldes. De bør
derfor i højere grad rustes til at identificere digitale krænkelser og have konkrete redskaber til, hvordan de
skal handle, når de er vidne til digitale krænkelser.
Derfor anbefaler DKR, at man allerede fra 0. klasse prioriterer undervisning, der forebygger digitale
krænkelser, og at undervisning i grænser, normer og adfærd på nettet fortsætter gennem hele
skolegangen. Det kræver også, at undervisere og skoleledere uddannes i at forebygge og håndtere digitale
krænkelser.
Samtidig skal det understreges, at det er mindst lige så vigtigt, at de sociale medier udvikler tekniske
løsninger til at blokere for offentliggørelsen af åbenlyst ulovligt indhold, således at ansvaret for at
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
identificere skadeligt indhold ikke primært ligger hos brugerne, herunder børn og unge. Tekniske løsninger
kan derudover være ressourcebesparende for såvel tjenesteudbyderen som offentlige myndigheder.
Venlig hilsen
Tania Schimmel
Forebyggelseschef
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0034.png
Dato: 21. januar 2022
Høringssvar
Forslag til Lov om regulering af sociale medier
DUF
Dansk Ungdoms Fællesråd takker for muligheden for at kommentere på forslaget til Lov om
regulering af sociale medier.
Generelle bemærkninger
brugernes klageadgang.
DUF er overordnet positiv overfor intentionerne i forslaget, da det øger gennemsigtigheden og styrker
DUF ønsker dog at gøre opmærksom på den risiko forslaget udgør for ytringsfriheden. DUF er enig i
intentionen om at sikre, at ulovligt indhold fjernes fra digitale platforme. For hvad der er ulovligt i den
fysiske verden, bør også være ulovligt i den digitale verden.
Det er dog afgørende, at vi sikrer, at det udelukkende er ulovligt indhold der fjernes fra de digitale platforme,
så borgernes ytringsfrihed ikke indskrænkes.
Derfor mener DUF, at der bør laves et nemt og gennemskueligt klagesystem, der er let tilgængeligt for alle
aldersgrupper, og at der foretages en evaluering af lovgivningen efter et par år.
Specifikke bemærkninger
Evaluering af lovgivningen
DUF mener, at der bør indtænkes en evaluering af lovgivningen efter et par år. Som samfund skal vi finde de
bedste løsninger i en konstant foranderlig teknologisk verden. Dette kræver, at vi kontinuerligt ændrer og
tilpasser vores lovgivning.
En evaluering kunne dertil have til formål at evaluere, hvorvidt tidsfristerne er passende til, at de digitale
platforme har tid til at vurdere, hvorvidt indhold er ulovligt eller ej.
Side 1
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0035.png
Sagsnr. 22-0118
Vores ref. HJE/kiak
21. januar 2022
Høringssvar: Udkast til lov om regulering af sociale medier
Fagbevægelsens Hovedorganisation (FH), der repræsenterer 64 medlemsorganisationer,
takker for høringen og muligheden for at give bemærkninger til udkast til lov om regulering af
sociale medier.
FH bakker fuldt op om lovens overordnede formål om at fremme beskyttelsen mod ulovligt
indhold og øge gennemsigtigheden om indholdsmoderation på kommunikationsplatforme,
gruppebeskedtjenester, datingtjenester, og spil- eller gamingtjenester.
Ligeledes er FH klar
over, at loven ikke som sådan er møntet på fagforeninger.
FH er imidlertid bekymret for, om loven kan have utilsigtede konsekvenser for fagforeninger og
arbejdsgivere, aftalesystemet og dermed den danske model. Udfordringen angår udbydernes
pligt til at udelukke eller beskære brugernes tilkendegivelser og udveksling på deres medier.
FH og dets medlemsforbund er – sammen med arbejdsgivermodparter – en del af et
aftalesystem, hvor fagforeninger forhandler overenskomster, iværksætter arbejdskonflikter og
har særdomstole i form af arbejdsretten og faglige voldgifter. I den forbindelse udøver både
fagforeningerne og arbejdsgiverforeningerne en række politiske aktiviteter, med henblik på at
varetage deres medlemmers interesser på relevante politikområder. Derudover vil der særligt i
forbindelse med overenskomstindgåelse og overenskomstfornyelser naturligt være meget
stærke og modstridende interesser, når disse udvikler sig til anvendelse af kollektive
kampskridt som f.eks. strejke og lockout.
Disse aktiviteter udøves understøttes i stigende grad via sociale medier, som bl.a. spiller en
rolle i forbindelse mobilisering af medlemmer og organisering af nye medlemmer.
Med den foreslåede lov er der risiko for, at udbydere af sociale medier fremover vil begrænse
fagforeningers og arbejdsgiveres mulighed for at udøve sådan legitim virksomhed. Dette
kunne bl.a. ske, hvis en part (enten arbejdstager eller arbejdsgiver) klager over modparten og
det indhold, modparten lægger på mediet, og udbyderne på den baggrund udelukker
modparten eller begrænser indholdet, uden at der sker en reel prøvelse af om indholdet er
ulovligt i de dertil indrettede særdomstole.
Risikoen herfor må forventes at være forstærket på et område, hvor udbyderne må forventes
ikke at have nogen nævneværdig erfaring eller ekspertise i, hvem eller hvad der bør udelukkes
og beskæres. På et sådant område vil udbyderen sandsynligvis agere unødigt restriktivt for ”at
være på den sikre side”.
Hertil kommer, at det også er muligt at udbyderne vil agre smagsdommere, og generelt
udelukke indhold om kollektive kampskridte, for at slippe for at blive en del af konflikterne på
arbejdsmarkedet, og hvad deraf følge. Det er således FH’s opfattelse, at udbyderne med den
foreslåede lov kan blive tillagt et ansvar som ”dømmende” instans, der er vanskeligt at leve op
til i forbindelse med konflikter på arbejdsmarkedet, hvilket skærpes yderligere af de korte
tidsfrister der kendetegner de sociale medier.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Til eksempel og illustration kan det nævnes, at HK Privat for nylig i forbindelse med Covid-19
nedlukningen har været meget uenige med Dansk Tandlægeforening om de tog arbejdsmiljøet
alvorligt nok på tandklinikkerne under sundhedskrisen. I den forbindelse blev de sociale
medier brugt aktivt. Efterspillet er blevet en række retssager både civil- og arbejdsretligt, netop
grundet tilkendegivelser på sociale medier. Det ville have været uheldigt, hvis denne slags
ytringer blev censureret bort i stedet for efterfølgende at blive vurderet af de relevante
retsinstanser. En sådan censur kunne have vanskeliggjort HK Privats arbejde for at sikre et
sikkert og sundt arbejdsmiljø under Covid-19 krisen.
En mulig løsning kunne være at tilføje en formulering i loven, som sikrer fagforeninger og
deres arbejdsgivermodparter fortsat kan udøve vores legitime virksomhed. En lignende tilgang
kendes på andre områder, hvor der er undtagelsesbestemmelser for bestemte
samfundsinstitutioner og aktiviteter, herunder faglige organisationers aktiviteter.
FH vil derfor foreslå, at der indarbejdes en bestemmelse i loven, der tydeliggør, at
lønmodtager- og arbejdsgiverorganisationer og deres medlemmer, i det omfang de agerer
indenfor deres interesseområde, ikke kan udelukkes fra frit og uden restriktioner at varetage
deres interesser. Det kan eventuelt kombineres med en undtagelse for
straffelovsovertrædelser.
FH ser frem til det videre arbejde og en adressering af vores bekymringer.
Med venlig hilsen
Ejner K. Holst
Næstformand, FH
Side 2 af 2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0037.png
Konkurrence og Forbrugerstyrelsen
Behov for at udvide reguleringen af so-
ciale medier til også at omfatte svindel-
annoncer på sociale medier.
Resumé
Finans Danmark bakker op om, at der stilles større krav til udbyderne af sociale
medier mm. Det er væsentligt, at de påtager sig et større ansvar for at hindre
spredning af ulovligt indhold, ikke mindst i lyset at deres store udbredelse.
Finans Danmarks medlemmer oplever, at den personrelaterede svindel på de so-
ciale medier er i kraftig vækst, og at det især er via reklamer på de sociale me-
dier, at svindlen opstår. UK Finance har i
deres opgørelse ”Fraud
- the Facts
2021” analyseret sig frem til, at 70 procent af den svindel, hvor brugerne bliver
svindlet til at overføre penge til de kriminelle, begynder på de sociale medier.
Finans Danmark foreslår derfor, at reguleringen af sociale medier udvides til også
at omfatte svindelreklamer på sociale medier. Der er behov for, at der også på
dette område stille større krav til udbyderne af de sociale medier, så de meget
hurtigere end i dag begrænser og bekæmper falske reklamer.
18. januar 2022
Dok: FIDA-1232191906-45893-v1
Kontakt Mette Stürup
Høringssvar
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0038.png
Høring af udkast til lov om regulering af
sociale medier
Tak for muligheden for at komme med bemærkninger til lov om reguleringen af
sociale medier. Finans Danmark støtter, at der kommer en bedre forbrugerbe-
skyttelse og en styrket indsats for at bekæmpe ulovligt indhold på sociale medier.
Finans Danmark bakker op om, at der stilles større krav til udbyderne af sociale
medier mm. Det er væsentligt, at de påtager sig et større ansvar for at hindre
spredning af ulovligt indhold og informationer, ikke mindst i lyset at deres domine-
rende udbredelse.
Høringssvar
Vi er glade for, at der nu stilles krav om en hurtig fjernelse af ulovligt indhold på
sociale medier. Vi finder, at der er behov for at udvide reguleringen til også at
omfatte falske reklamer, hvor formålet for bagmændene er at svindle sig til ofre-
nes penge på forskellig vis.
Bagmændene bruger fx kendte som skuespiller Mads Mikkelsen og investor Je-
sper Buch som lokkemad. Et eksempel på, hvordan de falske reklamer fungerer,
er beskrevet her: https://www.facebook.com/DRNyheder/videos/kendte-bruges-
som-lokkemad-i-bitcoin-svindel/1027282981394343/
De falske reklamer bliver for mange ofre indgangen til en dialog med svindlerne,
der med kombinationer af sofistikerede metoder - der inkluderer telefonopkald
med påståede investeringsrådgivere, sms’er og e-mails
og falske hjemmesider
med grafisk fremstilling af ”investeringens” positive udvikling
- hvor ofrene bliver
bildt ind, at de er i færd med en lukrativ investering i bitcoins, binære optioner,
ædle metaller eller lignende.
Det er især på de sociale medier at svindlen opstår. Det er her relevant at se på
tallene og tendensen fra UK, fordi det er en erfaring, at svindelformer ofte starter i
den engelsksprogede del af verden for dernæst at bevæge sig til de mindre
sprogområder som eksempelvis det danske.
Finans Danmarks britiske søsterorganisation, UK Finance, har således analyseret
sig frem til, at 70 procent af den svindel, hvor brugerne bliver svindlet til at over-
føre penge til de kriminelle, begynder på de sociale medier. (https://www.ukfi-
nance.org.uk/press/press-releases/over-two-thirds-of-all-app-scams-start-on-
line%E2%80%93new-uk-finance-analysis)
18. januar 2022
Dok. nr.:
FIDA-1232191906-45893-v1
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0039.png
Og City Police of London offentliggjorde sidste år en nyhed om at tabet ift. inve-
steringssvindel, der startede på en social platform, i UK var £63 mio. De to mest
brugte platforme var hhv. Instagram og Facebook. (https://www.cityoflon-
don.police.uk/news/city-of-london/news/2021/may/new-figures-reveal-victims-
lost-over-63m-to-investment-fraud-scams-on-social-me-
dia/?__cf_chl_captcha_tk__=FeqmvAainL8u9dl1skjbJ842EEIhK.BFYiMXJFhTN88-
1642594986-0-gaNycGzNCb0)
Og udfordringen med investeringssvindel er desværre allerede markant i Dan-
mark. Finans Danmark offentliggør løbende tal for denne slags svindel. I 2020
svindlede kriminelle sig til et udbytte på knap 68 mio. kroner. Og de kriminelle har
stigende succes. I 2019 var tabstallet 53 mio. kroner I 2018 var det 33,5 mio. kro-
ner. De enkelte sager kan i omfang dreje sig om alt fra nogle få tusinde kroner til
sager i millionstørrelsen (https://finansdanmark.dk/nyheder/2021/de-lokker-med-
hurtige-penge-men-det-hele-er-svindel/).
UK Finance analysen peger samtidig på et skifte fra, at det tidligere var de krimi-
nelle, der stjal kundernes penge, efter de havde logget identitetsoplysninger ud
af folk til, at størstedelen af svindlen nu er baseret på at kunderne selv gennem-
fører overførslerne. Hvilket gør det endnu mere væsentligt at få stoppet vildled-
ningen af borgerne.
Derfor er der behov for en regulering, der pålægger mediegiganterne et ansvar
for at forhindre falske opslag og reklamer således de fjernes langt hurtigere, end i
dag.
Vi kan i den forbindelse gøre opmærksom på, at den britiske regering i en kom-
mende Duty of Care Bill forventes at ville stille forslag om at indføre regler om, at
sociale medier og søgemaskiner kan få bøder, hvis de ikke rettidigt slår ned på
internetsvindel. Tanken bag dette forslag er at forpligte sociale medier og søge-
maskiner til at indføre "systemer og processer" for at forhindre, at svigagtige rekla-
mer bliver lagt ud på deres websteder. De sociale medier kan få bøder på op til
10 procent af deres globale omsætning. Selskaberne skal også udpege en navn-
given direktør, som ansvarlig for disse tiltag og som i yderste konsekvens kan risi-
kere op til to års fængsel, hvis myndighederne ikke rettidigt får de nødvendige
oplysninger, de har brug for til at udføre konkrete undersøgelser af formodet svin-
del på de sociale platforme.
I dag går der alt for lang tid før ulovlige reklamer mm. tages ned, og det tager
for lang tid før de sociale medier reagerer på henvendelser vedrørende påstået
ulovligt indhold.
18. januar 2022
Dok. nr.:
FIDA-1232191906-45893-v1
Høringssvar
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0040.png
Vi forslår derfor, at lovforslaget udvides til også at omfatte falske reklamer.
Med venlig hilsen
Mette Stürup
Direkte: +4527152020
Mail: [email protected]
Høringssvar
18. januar 2022
Dok. nr.:
FIDA-1232191906-45893-v1
Finans Danmark
|
Amaliegade 7
|
1256 København K
|
www.finansdanmark.dk
4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0041.png
Fiolstræde 17 B, Postboks 2188, 1017 København K
taenk.dk · [email protected] · +45 7741 7741
CVR: 6387 0528
Konkurrence- og Forbrugerstyrelsen
Sendt pr. e-mail til:
Louise Due Cifuentes
[email protected]
og
Susanne Aaman
[email protected]
18. januar 2022
Dok. 225264
Forbrugerrådet Tænks høringssvar til lovforslag om regulering af
sociale medier
Idet Forbrugerrådet Tænk takker for modtagelsen af Konkurrence- og Forbrugerstyrelsen
høringsbrev af 20. december 2021, skal vi hermed afgive vores bemærkninger.
Generelle bemærkninger:
Loven har til formål at styrke techgiganters og andre store platformes ansvar for at fjerne
ulovligt indhold på sociale medier, datingtjenester samt gamingtjenester med over 100.000
brugere årligt i Danmark. Lovforslaget pålægger således tjenesteudbydere af
kommunikationsplatforme at etablere procedurer for håndtering af klager over ulovligt
indhold inden for nogle specifikke tidsfrister, herunder ’åbenlyst ulovligt’ indhold, som skal
fjernes inden for 24 timer. Ulovligt indhold defineres ikke særskilt i lovforslaget, men gælder
enhver form for indhold, der strider mod gældende dansk ret.
Det har længe været et kendt problem, at ulovlige videoer og billeder eller annoncer med
scam eller usikre produkter florerer på sociale medier med krænkelser eller risici til følge.
Forbrugerrådet Tænk finder det derfor positivt, at regeringen vil regulere området og
dermed er på forkant med den regulering, der er på vej fra EU. Den eksisterende praksis,
som bygger på sociale mediers frivillige initiativer og fællesskabsregler har vist sig ikke at
være tilstrækkelig effektiv i forhold til at beskytte brugerne.
Det er vores opfattelse, at det i dag står klart, at store digitale platforme med millioner af
brugere som fx Facebook med dets forretningsmodel og dominerende stilling ikke alene kan
betragtes som en privat virksomhed, men i høj grad som en offentlig digital infrastruktur,
hvormed der følger et særligt ansvar.
Forbrugerne betaler for at bruge tjenesten med deres data, adfærd og opmærksomhed
døgnet rundt og har reelt ingen alternativer at gå til, såfremt de ikke er tilfredse med
tjenestens indhold eller metoder.
På en måde kan man sammenligne platformenes samfundsrolle med bankerne herhjemme.
Banker er også private virksomheder, men det forhold, at man reelt ikke kan vælge dem fra,
og at deres adfærd har store konsekvenser for den enkelte og for vores samfund betyder, at
de bør være underlagt skrappere regler og har et særligt ansvar i forhold til almindelige
virksomheder.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0042.png
Konkrete bemærkninger:
Set fra et forbrugerbeskyttelsessynspunkt er det positivt, at lovforslaget har et bredt scope og
således lægger op til, at al indhold, der strider mod gældende dansk ret, skal fjernes, hvis det
påklages efter ”notice and take down” princippet. Falske profiler, nøgenbilleder eller hadsk
tale og scam samt annoncer for farlige produkter og annoncer i strid med
markedsføringsloven forventer vi i højere grad bliver nedtaget.
Lovens anvendelsesområde
I forhold til anvendelsesområdet (lovens kap. 1) er der imidlertid flere undtagelser fra loven,
hvor vi finder det bør genovervejes, hvorvidt de er hensigtsmæssige:
For det første undtages tjenesteudbydere, der tilbyder lukkede grupper under 5000
brugere. Vi støtter hensynet til privatlivets fred, men kan samtidig frygte, at en
undtagelse for gruppebeskedtjenesterne kan føre til, at ulovligt krænkende materiale
i højere grad flyttes dertil. Den såkaldte Umbrella-sag blev netop delt i grupper på
Facebook Messenger, som er et populært medie blandt unge at dele billeder og film
på.
For det andet opfordrer vi til, at deling af ulovligt indhold på tjenester, der primært
er beregnet til formidling eller salg af varer og tjenesteydelser også omfattes
regelsættet. Foruden det åbenlyse behov for at fjerne usikre produkter, der ikke lever
op til dansk lovgivning, vil en nedtagelse også stemme overens med ambitionerne i
Digital Service Act og opdateringen af produktsikkerhedsdirektivet. Desuden vil det
være i tråd med Sikkerhedsstyrelsens arbejde med at sikre nedtagning af ulovlige
produkter online, hvis lovens anvendelsesområde udvides til at omfatte e-
handelsplatforme.
For det tredje undtages der for indhold fra massemedier, hvilket er naturligt nok, så
længe vi taler artikler, da disse er omfattet medieansvarsloven. Men det er
problematisk, hvis der ikke er nogen, som tager ansvar for indholdet i de mange
kommentarspor, der typisk udvikles i forlængelse af artikler på de sociale medier.
Anmeldelse af ulovligt indhold
I forhold til anmeldelsesproceduren (lovens kap. 2) glæder det os, at der opstilles en række
krav til tjenesteudbyderne i forhold til at sikre, at forbrugere kan anmelde ulovligt indhold
ved hjælp af funktioner, som er ”nemme at håndtere og altid til rådighed”, ligesom klager
omgående skal orienteres om tidshorisonten for nedtagelse.
Det at ”få hul igennem” til de store techgiganter som fx Google og Facebook har i årevis været
en kæmpe udfordring og det har længe undret os, at techgiganter i modsætning til
almindelige virksomheder ikke har været forpligtet til at sikre en rimelig kontaktinformation
og tilgængelighed.
Vi skal derfor opfordre Konkurrence- og Forbrugerstyrelsen til at have et særligt
fokus på overholdelse af netop disse krav, så forbrugere og andre vil opleve en
væsentlig forbedring i forhold til i dag.
Det er fint, at der gives oplysninger om klagers mulighed for samtidig at anmelde
sagen til politiet, men vi mener det bør overvejes, hvorvidt der bør pålægges en pligt
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0043.png
for tjenesteudbyderen til at orientere politiet i de tilfælde, hvor der klages over
åbenlyse alvorlige lovovertrædelser.
Efterprøvelse og genplacering af indhold
Forslaget lægger op til, at forbrugere og andre kan få efterprøvet en afgørelse om fjernelse af
indhold på platformen. Vi finder, at denne rettighed er afgørende af hensyn til den enkeltes
retssikkerhed, men også for at sikre regelsættet ikke karambolerer med ytringsfriheden.
Forbrugerrådet Tænk bifalder som nævnt, at lovforslaget har et bredt anvendelsesområde,
men vi har samtidig en bekymring for, at for meget indhold pr. automatik vil blive nedtaget.
Da rammerne for nedtagning opstiller tidsfrister og er bødesanktioneret kan det øge
platformenes incitament til at udvide den automatiske nedtagning, som allerede sker i stort
omfang i dag via algoritmer.
For at sikre en rimelig balance mellem på den ene side hensynet til at beskytte
brugere af kommunikationsplatforme imod ulovligt indhold, og på den anden side at
sikre hensynet til ytringsfriheden foreslår vi, at reglerne skal pålægge
tjenesteudbyderen at genplacere indhold, som viser sig ikke at stride imod dansk
lovgivning.
Genplacering behøver ikke nødvendigvis ske i alle tilfælde, men fx i særlige sager,
hvor nedtagningen er til stor ulempe for forbrugeren eller den lille erhvervsdrivende
som fx en kunstner eller forfatter, der kan risikere at miste alt, når indhold nedtages
permanent uden saglig begrundelse.
Som tidligere anført finder vi, at techgiganternes væsentlige samfundsrolle som digital
infrastruktur betyder, at de ikke længere kan sidestilles med almindelige, private
virksomheder. Vi finder det derfor betænkeligt, hvis enhver nedtagelse – uanset om den er
strid med gældende dansk lov eller ej, blot kan forblive fjernet med henvisning platformenes
egne interne fælleskabsregler, som løbende kan ændres og udvides. Hertil er visse tjenester
blevet for magtfulde og altomfattende.
Vi opfordrer derfor Konkurrence- og Forbrugerstyrelsen til at sikre en løbende
materiel stikprøvekontrol af den efterprøvelse, som sker hos tjenesteudbyderne.
Enten hos myndigheden selv eller hos en uafhængig instans. I forlængelse heraf bør
de afgørelser, der ”frifinder” indhold fra at stride imod dansk lovgivning
genetableres på tjenesten. Som nævnt ovenfor som minimum i de tilfælde, hvor en
nedtagning er til stor ulempe for brugeren.
Konkurrence- og Forbrugerstyrelsens tilsyn med reglerne
I forhold til reglerne om tilsyn (kapitel 6) fremgår det, at Konkurrence- og
Forbrugerstyrelsen alene har til opgave at sikre den processuelle overholdelse af reglerne,
modsat en materiel prøvelse som ovenfor nævnt. Vi har forståelse for, at det vil være en
ressourcetung opgave, såfremt styrelsen skulle forestå en juridisk prøvelse på tværs af
juridiske retsområder.
Derfor foreslår vi alene en stikprøvekontrol evt. foretaget af en uafhængig instans.
Omkostningerne hertil kunne fx dækkes af tjenesteudbyderen.
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Vi finder dog, at Konkurrence- og Forbrugerstyrelsen bør være forpligtet til, når de
bliver opmærksomme på ulovligt indhold, der ligger indenfor deres eget
ressortområde som fx overtrædelse af konkurrence- eller markedsføringsregler at
tage sagen op af egen drift. Som minimum i de tilfælde, hvor det er åbenlyst, at der
foreligger en overtrædelse, som bør medføre nedtagning på platformen.
Vi opfordrer til, at det samtidigt sikres, at Konkurrence- og Forbrugerstyrelsen, når
de bliver opmærksomme på potentielle lovovertrædelser, som henhører under andre
myndigheders ressortområder, som fx nedtagning af annoncer om salg af ulovlige
produkter, gør den rette myndighed opmærksom herpå.
Afslutningsvis skal nævnes, at Forbrugerrådet Tænk støtter Erhvervsministeriets vurdering i
lovbemærkningerne om, at organisationer, der beskæftiger sig med beskyttelse online, skal
have adgang til at bruge anmeldelsesfunktionen uden først at oprette en profil på det
pågældende platform. Det samme gælder for myndigheder, og for forældre, som oplever, at
deres barn er blevet krænket i strid med loven, hvilket er positivt.
Såfremt I har spørgsmål til ovenstående, er I velkommen til at kontakte undertegnede.
Med venlig hilsen
Afdelingschef
Uffe Rabe Krag
Chefjurist
Anette Høyrup
4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0045.png
Fra:
Til:
Cc:
Emne:
Dato:
Morten Lind Skovhus Sønderby
Louise Due Dirksen Cifuentes; Susanne Aamann
Mariam Suzi Khalil
Høring omkring udkast til lov om regulering af sociale medier
20. januar 2022 11:28:52
På vegne af Foreningen Af Offentlige Anklagere kan jeg oplyse, at foreningen kun skal gøre
opmærksom på, at sanktionsmulighederne i lovudkastet kan forventes at give
Anklagemyndigheden et vist merarbejde.
Med venlig hilsen
Morten Sønderby
Bestyrelsesmedlem
FOAN_logo_0811_CMYK
Foreningen af Offentlige Anklagere
c/o Nordjyllands Politi
Jyllandsgade 27
9000 Aalborg
Tlf.: +45 61 39 56 80
E-mail:
[email protected]
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0046.png
Google Ireland Limited
Gordon House, Barrow Street, Dublin 4, D04 E5W5, Ireland
The Competition and Consumer Authority
21 January 2022
Response regarding consultation of the Danish regulation on social media
Google Denmark ApS thanks the Competition and Consumer Authority ("the Authority") for the
oppo unity to provide input to the proposed regulation on social media (referred to below as “the
DDSA”, sho for Danish DSA).
Google Denmark ApS provides this response on behalf of Google Ireland Ltd. ("Google") which is
the service provider in the European Economic Area (EEA) and Switzerland.
1(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Executive summary
Google stø er behovet for regulative rammer, som skaber større klarhed omkring digitale
pla ormes ansvar. De or har vi også fra sta bakket op om Den Europæiske Kommissions forslag
til en Digital Services Act (DSA) og været en aktiv medspiller i hele den proces. For os står valget
ikke mellem regulering eller ikke-regulering. For os handler det om at skabe den mest e ektive og
velovervejede regulering.
I de følgende vil vi uddybe vores kommentarer til regeringens forslag om en dansk lovgivning på
området. Generelt fordeler de sig over tre hovedpointer:
Med lovforslaget går Danmark enegang i forhold til EU
Google nder det problematisk, at regeringen foreslår national lovgivning, som regulerer
samme områder som DSA. Formålet med DSA er at skabe en nødvendig harmonisering på
tværs af EU med et samlet sæt regler, hvilket ikke bare gør national særlovgivning
unødvendig, men også skadelig i forhold til retssikkerheden. Som minimum bør indsæ es
en solnedgangsklausul i den danske lovgivning, så den danske lov træder ud af kra , når
DSA gennemføres.
Danmark skader og fragmenterer EUs indre marked ved at indføre national lovgivning på
områder, der allerede er dækket af europæisk lov. Det gælder eksempelvis
E-handelsdirektivet, Ophavsretsdirektivet, og Direktivet om audiovisuelle medietjenester.
Oprindelseslandsprincippet bør respekteres og ulovligt indhold, der allerede er dækket af
anden lovgivning bør undtages det danske lovforslag.
Deadlines vil kompromi ere ytringsfriheden
Strenge deadlines kombineret med høje bødestra e vil presse pla orme til at overblokere
ytringer og indhold samt erne tvivlssager for at være på den sikre side. De e krænker
brugernes ytringsfrihed og udgør et demokratisk problem, idet pla ormene i høj grad vil
skulle agere udøvende og lovgivende magt.
I stedet for deadlines bør det danske lovforslag - ligesom både e-handelsdirektivet og de
seneste udkast til DSA - understrege, at nedtagning bør ske uden ‘unødig forsinkelse. Jo
alvorligere en ove rædelse, des hu igere nedtagning.
Som minumum bør indhold, der ikke er udtalt ulovligt og behøver nærmere granskning (eks.
personkrænkelser) undtages fra det danske forslag om deadlines.
Format for gennemsigtighedsrappo er skal være eksibelt for at give mening
Online pla orme har vidt forskellige politikker, processer og problemstillinger. Meningsfuld
gennemsigtighed ser forskellig ud fra tjeneste til tjeneste, men ensa et på tværs af lande,
og ikke som i det danske forslag, der kræver at vidt forskellige pla orme indbere er data i
samme, særegent danske format.
Snarere bør man formulere generelle, fælleseuropæiske principper og målsætninger for
gennemsigtighed og acceptere eksible formater for datarappo ereing i forhold til hvad
der giver det mest meningsfulde billede af pla ormens processer
2(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0048.png
Introduction
We understand that the purpose of the regulation on social media, the DDSA, is to improve the
protection against unlawful content and improve transparency regarding content moderation. This
is materialized in a number of obligations applied to service providers and their handling of illegal
content on their pla orms.
The main obligations include
1)
implementing processes to deal with noti cations regarding illegal content within 24-hour /
7-day / 14-day deadlines, as well as an appeal procedure;
2) yearly publishing transparency repo s on the implementation of the obligations, including
statistics on noti cations received and outcomes;
3) providing contact information to the supervisory authority, deadlines for con rming receipt
of le ers from the supervisory authority and pa icipating in a user complaint procedure
set up by the supervisory authority; and
4) providing extensive information to the authorities on request.
Non-compliance with the proposed obligations can entail nes as high as up to 6% of the annual
global turnover in the preceding business year adjusted by the propo ion of the service provider's
users in Denmark.
Since the DDSA contains technical regulations for an information society service, it is required to
undergo the procedure described in Directive (EU) 2015/1535
1
, A icle 5(1). Google therefore
expects that the EU Commission will be noti ed of the DDSA and that a standstill period will apply
before adoption of the DDSA, as required by the procedure.
The DDSA adds to the increasing regulatory fragmentation in the Digital Single Market in the face of
similar national legislation. The EU Commission’s Impact Assessment for the DSA noted that this
fragmentation, and “the resulting patchwork of national measures will not just fail to e ectively
tackle illegal activities and protect citizens’ fundamental rights throughout the EU, it will also hinder
new, innovative services from scaling up in the internal market.”
2
The scope of the DDSA is pa icularly problematic and gives rise to several concerns, including the
following:
The DDSA could have a negative impact on the open internet and freedom of expression,
forcing pla orms to over-remove content to avoid liability.
The DDSA could be considered incompatible with existing European laws and not aligned
with current legislative initiatives.
We have elaborated on our concerns below. These are separated into two categories: (1) general
remarks to the DDSA in relation to e.g. existing and upcoming EU laws and (2) speci c remarks
pe aining to the proposed provisions of the DDSA.
1
Directive (EU) 2015/1535 of the European Parliament and of the Council of 9 September 2015 laying down a procedure for
the provision of information in the eld of technical regulations and of rules on information society services (codi ed text).
2
Explanatory memorandum to the Digital Services Act
h ps://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52020PC0825&from=en
3(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0049.png
General remarks in relation to e.g. existing and upcoming EU laws
The DDSA could be considered incompatible with, inter alia, the following existing EU laws:
The e-Commerce Directive
3
The Audiovisual Media Services Directive
4
The Cha er of Fundamental Rights
The Treaty on European Union
The e-Commerce Directive
The country of origin principle
The e-Commerce Directive is implemented in Denmark as Law no. 227/2002 on information society
services, including in ce ain types of electronic commerce legislation (the e-Commerce Act).
Pursuant to the country of origin principle of the e-Commerce Directive, A icle 3(2), a Member
States may not, for reasons falling within the coordinated eld, restrict the freedom to provide
information from another Member State.
The DDSA falls within the coordinated eld of the e-Commerce Directive, as de ned in A icle 2(h),
as it concerns the obligations for service providers to remove illegal content. Also, the obligations in
the DDSA are not covered by any of the exemptions to the country of origin principle.
Consequently, the obligations proposed in the DDSA will entail a restriction of the freedom to
provide information society services from providers established in other Member States than
Denmark.
Therefore, the requirements in the DDSA should as a general rule not apply to service providers,
such as Google, established in another EU Member State than Denmark.
Derogation from the country of origin principle
In the comments to the DDSA
5
it is stated that:
"It
is the assessment of the Ministry of Business and Industry that supervision will largely
have to be carried out in relation to service providers that are not established in Denmark. It
is therefore the assessment of the Ministry of Business and Industry that the supervisory
activities of the Competition and Consumer Authority shall be carried out in accordance
with § 6 of the e-Commerce Act, cf. more details on this provision under section 2.6.1.1. The
rules therein mean that the Competition and Consumer Authority may only take concrete
enforcement measures against a speci c service provider of a communication pla orm,
3
Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on ce ain legal aspects of
information society services, in pa icular electronic commerce, in the Internal Market ('Directive on electronic commerce')
4
Directive (EU) 2018/1808 of the European Parliament and of the Council of 14 November 2018 amending Directive
2010/13/EU on the coordination of ce ain provisions laid down by law, regulation or administrative action in Member States
concerning the provision of audiovisual media services (Audiovisual Media Services Directive)
5
Page 42
4(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0050.png
and that the concrete measure must be propo ionate to the objective, cf. § 6(1) of the
e-Commerce Act."
Generally, it is the interpretation of A icle 3(4) in the e-Commerce Directive that this only applies to
speci c and concrete circumstances.
The comments from the EU Commission in regards to the noti cation procedure pursuant to
Directive (EU) 2015/1535, A icle 5(1) for both the German
6
and the Austrian
7
version of a content
regulation con rms this view.
This view was also taken in a communication from the Commission concerning nancial services. It
was expressly stated that
“[t]o be covered by A icle 3(4) [E-Commerce Directive], the measure must, therefore, be
taken on a case-by-case basis against a speci c nancial service provided by a given
operator”
8
.
This interpretation of the e-Commerce Directive, A icle 3(4) is commonly accepted and the
prevailing view in the legal literature
9
. It is also suppo ed by the fact that A icle 3(4)(b) and A icle
3(5), require the prior noti cation by the originating Member State to the Commission, which is only
a meaningful requirement if A icle 3(4) as a whole is limited to case-by-case derogations for a
speci c, individual information society service.
The e-Commerce Directive sets out a number of conditions, which must be met in order for
Member States to be permi ed to take measures pursuant to A icle 3(4) towards service providers
established in another EU Member State.
These conditions include e.g. that the Member State prior to imposing a measure on a service
provider must notify the Member State of establishment and request action in relation to the
intended measure.
In the comments to the DDSA
10
it is stated that
"The
rules in § 6(2) of the E-Commerce Act also require the Competition and Consumer
Authority to notify the sender country and the European Commission when it takes
concrete enforcement measures, such as orders, against a service provider established in
another EU country. Both the sender country and the European Commission then have the
possibility to contest the concrete enforcement and the legality of the measure, as well as
the concrete service provider has the possibility to contest the legality of the measure."
Following these comments, the Competition and Consumer Authority should notify the Member
State of establishment, when the Authority wishes to enforce the obligations in the DDSA to a
6
Decision C(2020) 3380 nal.
(h ps://www.asktheeu.org/en/request/8206/response/26755/a ach/2/C%202020%203380%20F1%20DECISION%20LETTER
%20EN%20V2%20P1%201080594.pdf?cookie_passthrough=1)
7
Decision C(2020) 8737 nal (h ps://ec.europa.eu/transparency/documents-register/detail?ref=C(2020)8737&lang=en)
8
Application to nancial services of a icle 3(4) to (6) of the electronic commerce directive, COM (2003) 259 nal, p. 5
9
See for example, Jakob Plesner Mathiasen, Niels Bo Jørgensen & Johan Schlüter, E-handelsloven med kommentarer, 2004,
p 97
10
Page 42
5(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0051.png
speci c service provider. The view seems to be that noti cation should not be made at the time of
implementing the DDSA, as is otherwise indicated in the EU Commission's comments to the
Austrian act
11
.
The obligations in the DDSA, such as establishing a noti cation procedure and a procedure for
review, together with speci c timeframes for processing of take-down requests, must be
considered procedural obligations that apply to multiple service providers, i.e. all service providers
in scope of the DDSA.
In addition, the obligations contain duties to pe orm positive actions, as opposed to a duty to
refrain from a ce ain act. As the service provider can be sanctioned for not taking action, e.g. for
not dra ing a transparency repo , the mere "duty to act"-obligations are similar to imposing
obligations via actual enforcement.
Hence, as the enforcement, i.e. the obligations for the service provider to act, must be deemed in
the sense of the e-Commerce Directive to take place at the time of entering into force, the
noti cation procedure pursuant to A icle 3(4) must be observed prior to the entering into force of
the DDSA, and not at the time of the Competition and Consumer Authority's actual enforcement.
It is likely that the procedure in A icle 3(4) could apply, where a service provider does not remove
speci c, illegal content, and thus a request could be made to the Member State of establishment to
have the service provider remove the content in question, provided that the additional applicable
conditions are met.
However, it is stated that the Competition and Consumer Authority will only be competent in
relation to the procedural obligations following the DDSA §§ 4-7. Likewise, according to the
comments to the DDSA
12
, the Competition and Consumer Authority will not be competent in
relation to the material review of each take-down request, cf. § 5 of the DDSA. As this will be
subject to a material assessment of the content, this will be handled by the authorities competent
within the speci c area of law.
Therefore, although it is stated that the Competition and Consumer Authority shall have
competence in relation to supervision of service providers established in other Member States, the
Competition and Consumer Authority merely has competences under the DDSA pe aining to
generic procedural obligations. Neither these procedural obligations, nor the speci c enforcement
of them, constitute case-by-case measures against a “given information society service”, hence
the competences of the Competition and Consumer Authority cannot be exercised against service
providers established in other Member States..
The mere introduction of the generic procedural obligations with the express purpose of enforcing
these under the cover of an alleged "case by case" approach will therefore entail a violation of
a icle 3(2) of the e-Commerce Directive.
11
12
Page 10 in C(2020) 8737 final
Page 42
6(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0052.png
The Audiovisual Media Services Directive
The Audiovisual Media Services Directive establishes a special country of origin principle for
video-sharing pla orm providers, which represents a
lex specialis
in relation to A icle 3 of the
e-Commerce Directive. Speci cally, the Audiovisual Media Services Directive provides that
“a
video-sharing pla orm provider established in the territory of a Member State within the
meaning of A icle 3(1) of the [e-Commerce Directive] shall be subject to the jurisdiction of
that Member State”
(A icle 28a(1)).
In contrast to A icle 3(4) of the e-Commerce Directive, however, the Audiovisual Media Services
Directive does not contain any provisions that allow for derogation with regard to providers
established in another Member State. A derogation may only take place as regards video-sharing
providers who are not established in a Member State, but are only "deemed" to be established in
such a Member State. Pursuant to A icle 28a(5) of the Audiovisual Media Services Directive:
“A
icle 3 [of the e-Commerce Directive] shall apply to video-sharing pla orm providers deemed to
be established in a Member State in accordance with paragraph 2 of this A icle".
The cited
paragraph 2 of A icle 28a of the Audiovisual Media Services Directive speci es in detail when
providers are "deemed to be established" and states at the outset that a video-sharing pla orm
provider can only be "deemed to be established" if it is "not established on the territory of a
Member State in accordance with paragraph 1".
Pursuant to A icle 28a(4), it is fu her clari ed when service providers are "deemed to be
established" by stating that
"where there are several subsidiary unde akings and each of them is
established in a di erent Member State, the video-sharing pla orm provider shall be deemed to be
established in the Member State where one of the subsidiary unde akings rst began its activity,
provided that it maintains a stable and e ective link with the economy of that Member State."
The fact that the "jurisdiction" referred to in A icle 28a(1) of the Audiovisual Media Services
Directive is an exclusive jurisdiction is also made clear by A icle 28a(7), which stipulates that
“where, in applying this A icle the Member States concerned do not agree on which Member State
has jurisdiction”,
the Member States must bring this ma er to the a ention of the Commission,
which may then request the European Regulators for Audiovisual Media Services (ERGA) to issue an
opinion.
The fact that A icle 28a(1) of the Audiovisual Media Services Directive grants exclusive jurisdiction
on the Member State where the video-sharing pla orm is established is also con rmed by ERGA,
which states that
“one may anticipate a greater tension between nationally-speci c policy goals
and the country-of-origin principle, in the case of VSP regulation”
13
. By applying to video-sharing
pla orms, too, the DDSA therefore breaches A icle 28a of the Audiovisual Media Services Directive
for those categories of illegal content that fall within the scope of the Audiovisual Media Services
Directive, namely:
13
(ERGA, Analysis & Discussion Paper to contribute to the consistent implementation of the revised Audiovisual Media
Services (AVMS) Directive (2018), at 40, available at
h ps://erga-online.eu/wp-content/uploads/2018/11/ERGA-2018-08-SG3-Analysis-and-Discussion-Paper.pdf).
7(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Content that incites to violence or hatred against a group of persons or a member of a
group on any of the grounds referred to in A icle 21 of the EU Cha er of Fundamental
Rights; and
Content the dissemination of which constitutes a criminal o ence under EU law, namely
public provocation to commit a terrorist o ence within the meaning of A icle 5 of
Directive (EU) 2017/541, o ences related to child pornography within the meaning of A icle
5(4) of Directive 2011/93/EU and racist and xenophobic o ences within the meaning of
A icle 1 of Framework Decision 2008/913/JHA.
Although it is stated in the derogation in § 2(9) in the DDSA that
"[t]his Act shall not a ect the rules,
which are to be regarded as lex specialis",
the DDSA also state that the bill
"shall not apply to the
extent that other rules lay down stricter requirements than those laid down in the provisions of this
Act".
It is unclear whether this derogation should be read pe aining to each provision in the bill, or
whether the bill as a whole will not apply, if the scope of the bill is also covered by lex specialis. The
scope of the derogation should therefore be clari ed to ensure that the DDSA does not apply,
where content moderation in general is regulated by lex specialis, and thus there should be no
requirement for the regulation in lex specialis to be stricter.
Violation of the freedom of expression and information under A icle 11 of the Cha er of
fundamental rights of the European Union
By its combination of time-bound removal obligations, the broad de nition of "illegal content", and
grave sanctions for service providers, the DDSA establishes a system that will force service
providers to remove content even “if in doubt” in order to avoid proceedings and nes.
The freedom of expression and information is not only restricted by measures that censor the
spoken (or wri en) word or subsequently block access to it. Rather, any intervention which hinders
or impedes the conduct protected by the freedom of expression and information constitutes an
inte erence.
Service providers already encounter a lot of grey-area content, and it is challenging enough to be in
the position to determine whether content crosses the line to illegality. Considering the time
pressure and threat of nes introduced with the DDSA, this task triggers a signi cant risk of
overblocking.
These e ects of the DDSA are not in line with the established opinion by the CJEU, that any
restriction of the freedoms protected by the Cha er, A icle 11 must be “strictly
targeted”
to avoid
overblocking.
With regard to the freedom of information guaranteed by the Cha er, A icle 11, the CJEU has held
that
“any
measures adopted by the internet service provider must be strictly targeted, in the
sense that they must serve to bring an end to a third pa y’s infringement of copyright or of
a related right but without thereby a ecting internet users who are using the provider’s
services in order to lawfully access information. Failing that, the provider’s inte erence in
8(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0054.png
the freedom of information of those users would be unjusti ed in the light of the objective
pursued”.
14
It should also be kept in mind that due to potential overblocking, the obligations introduced could
signi cantly increase the probability of intentional or accidental misuse of the noti cation
procedure, as users may experience a faster and broader removal of content, and thus be prone to
simply repo ing more content than necessary as illegal.
Considering that there is a serious risk of overblocking, it is thus troubling that the Ministry has not
elaborated on its considerations in relation to the potential consequences of the DDSA for the
freedom of expression, as this will undoubtedly be a ected considering the risk of overblocking.
Upcoming EU Legislation
As pa of the overall Digital Single Market Strategy, the EU is working on fu her harmonizing
liability standards and due diligence obligations for online pla orms with regard to illegal content.
The objective of the DDSA is dealing with the same subject ma er as a number of ongoing
initiatives in this regard, including the Digital Services Act, which is now at the nal stages of the
legislative process, the recently released proposal for a General Product Safety Regulation, and the
soon-to-released proposal for a Regulation on the detection, removal and repo ing of child sexual
abuse online.
On this basis, the DDSA does not observe the general principle of loyal cooperation under A icle
4(3) TEU.
According to A icle 4(3) TEU, third sentence, the Member States must refrain from any measure
which could jeopardize the a ainment of the Union's objectives.
The DDSA represents yet another national approach to regulating the area of online liability and the
law governing information society services and media service providers, including rules around
transparency and cooperation with the supervisory authority.
In pa icular, it is contrary to the proposed Digital Services Act, which provides a horizontal solution
by introducing a uniform regime for providers in all Member States precisely to address the
increasingly fragmented regulatory landscape which undermines the functioning of the EU internal
market.
15
If the DDSA enters into force, this will lead to fu her fragmentation of the single market.
Fu hermore, the adoption of a national legislation in the eld of ongoing EU legislative activities
could also increase the di culties of reaching and nalizing a compromise at EU level. In any case,
this leads to legal unce ainty for both pla orms and users in Europe.
14
CJEU, judgment dated 27 March 2014, case C-314/12 (UPC Telekabel), pr. 56; see also CJEU, judgment dated 24 November
2011, Case C-70/10 (Scarlet Extended), pr. 50.
15
A Union that strives for more, Political Guidelines for the next European Commission 2019-2024,
h ps://ec.europa.eu/commission/sites/beta-political/ les/political-guidelines-next-commission_en.pdf, p. 13.
9(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0055.png
The Commission has previously been noti ed of a proposal by the Austrian government, which also
aims to combat illegal online content. In its reply, the Commission proposed that Austria should
postpone the national initiative; the opinion states on page 12:
16
“As
underlined above, the Commission shares with the Austrian authorities the policy
objective of combating illegal content online and welcomes their suppo for the Digital
Services Act. In pa icular, the Commission welcomes their views suppo ing the need for
EU legislative action 10.
However, in view of the Commission's intention to adopt the legislative proposal for the
Digital Services Act in the coming weeks, Member States are advised to exercise restraint
and postpone the adoption of national initiatives on this ma er, such as the noti ed dra .
The Commission is commi ed to working closely with Member States in the preparation
and negotiation of this proposal and invites the Austrian authorities to pa icipate actively in
the process.”
(emphasis by us).
In its comments concerning an amendment to the German NetzDG the European Commission held
in its statement of 18 May 2020 (repeated in Noti cation 2020/174/D on 1 July 2020):
“In this regard, the Commission also notes that it has recently announced an EU Digital
Services Act, which will aim precisely at ensuring a coherent European approach to
e ectively address the problem of illegal activities on the Internet, as well as to regulate the
obligations for pla orms in this regard, whilst suppo ing the growth of European pla orms,
crucial actors of pluralism and freedom of expression, which need to capitalise on the scale
of our large digital Single Market.”
The European Commission goes on:
“[T]he noti ed dra is likely to overlap with the EU Digital Services Act initiative…”
And the European Commission concludes:
“[I]n view of the Commission’s intention and on-going work towards adopting EU legislation
on the ma er in the near future, it is suggested that Member States exercise restraint when
considering the adoption of national initiatives on this same ma er, such as the noti ed
dra .”
The above considerations also apply to the DDSA, which is published at a time when the process of
EU legislation is even fu her advanced, with the European Commission, European Parliament and
Council of the EU entering into trilogue negotiations to nalise the text of the DSA.
The scope of the DDSA will be imminently regulated under EU law (within the next few months
likely) which makes the proposed Danish legislative intervention dispropo ionate and is not in line
with the general principle of loyal cooperation in the EU.
16
Brussels, 3.12.2020 C(2020) 8737 nal, Noti cation 2020/544/A
10(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0056.png
Speci c remarks pe aining to the proposed DDSA
Notwithstanding our comments above with respect to the potential incompatibility with a number
of key pieces of EU legislation, we provide below some speci c comments with respect to the
DDSA.
No sunset clause
It is unclear whether the legislator intends for the DDSA to continue to apply a er the DSA has
come into force - and if the law were to continue to apply, it is unclear to what extent this may be.
Compliance with multiple di erent national legislation in relation to content moderation will require
extensive resources for the service providers - both in terms of legal understanding of the
di erences in the national legislation and in technical functionalities.
As the DDSA falls within the coordinated eld, we assume that the DDSA will cease to apply when
the DSA enters into force and we recommend that this is included as a speci c provision in the law.
Turnaround times
Google is pleased to see that the DDSA includes an exception to the deadlines, cf. § 5(4), where the
service provider's decision is clearly dependent of information regarding the factual circumstances
from the user, who shared the noti ed content, cf. § 5(4)(1) or where the complexity, length or
language has the e ect that the service provider cannot comply with the deadline in § 5(4)(2).
However, turnaround times are generally not the most e ective measures to ensure protection of
users, as this does not capture the actual impact on the viewer. They also raise signi cant
implementation challenges, and the risk of excessive takedowns that run counter to the
fundamental rights of citizens in Europe. Fixed turn-around times are therefore not the solution.
Fu her, the notice-and-take-down obligation in the e-Commerce Directive already requires
service providers to remove content without "undue delay" pursuant to the e-Commerce Directive.
The obligation therefore contains a propo ionality assessment, which entails that the more severe
a violation the content constitutes, the faster the content must be removed. Service providers
should thus act upon notices in a timely manner, in pa icular, by taking into account the type of
illegal content being noti ed and the urgency of taking action.
The e-Commerce Directive therefore allows for “undue delay” to be interpreted di erently
depending on the circumstances at hand each time, which allows room for the service providers to
prepare contextual analyses and considerations before removing noti ed content.
Fu her, the notice-and-take-down obligation in the e-Commerce Directive already contains a
propo ionality assessment, which entails that the more severe a violation the content constitutes,
the faster the content must be removed.
In the EU, there seems to be a general approach steering away from xed turnaround times. For
example In the French ruling on the French law intended to ght hate content on the internet
17
the
French Constitutional Council decided that the turnaround times in the law intended to ght hate
17
Decision no. 2020-801 DC of June 18, 2020
11(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
content on the internet was unconstitutional. Fu her, it should be noted that turnaround times are
also currently not included in the legal framework of the DSA.
Considering the signi cant risk for overblocking due to strict turnaround times, we recommend
removing the proposed timelines, in line with the French ruling and the current dra of the DSA.
Transparency repo s
We agree that it is impo ant to provide transparency. Policies work best when users are aware of
the rules and understand how they are enforced. That is why Google already works hard to make
this information clear and easily available to all.
The current wording of the transparency obligation is, however, very detailed and will require great
resources to produce.
For service providers operating in multiple Member States it will be very burdensome and
resource-demanding from both a technical and organizational perspective to produce repo s with
di erent levels of detail and which require di erent statistics. It is for this, and other reasons, that
EU regulatory initiatives such as the DSA, AVMSD and GDPR seek to harmonise a single set of rules
that apply to services established in the EU, with those services repo ing to a single regulator.
Especially pe aining to the level of detail of the proposed obligation, it is noted that there is no
ideal one-size- ts-all approach. Each company has its own set of policies, processes, and
procedures for the panoply of issues that underlie transparency repo s, and can thus only produce
data unique to its own actions.
We therefore encourage that the transparency obligation is dra ed by se ing a high-level purpose
for the repo and le ing each service provider prepare a repo
t for its business, i.e. based on its
size, type of content, etc.
Requirements for noti cations
"Illegal content" could cover several di erent areas of law, including criminal law, intellectual
prope y law, data protection law, marketing law, etc. Taking into consideration that the service
providers according to the current proposal of the DDSA is not allowed to require the noti er to
provide reasons for why the content is considered illegal, cf. the comments to the DDSA, it may be
challenging to assess the illegality of many of the removal requests under the law.
Considering the broad scope of the bill and the strict turnaround times for removals, service
providers are le limited room and resources for contextual analysis/considerations, which much of
the illegal content will require and which is needed to ensure that no overblocking is taking place.
Without being able to require noti ers to provide reasoning or background info in their noti cation,
assessments of whether content is illegal may be awed.
Google currently requires that removal requests are made in writing, as speci c as possible about
the content to be removed, and clear in its explanation of how the content is illegal. This helps
ensure a faster turnaround and a high quality legal assessment, reducing the risk of overblocking.
12(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0058.png
The most likely consequence of the current wording of the law is that service providers implement
a general approach that all noti cations regarding illegal content are assumed to be well-founded,
and thus service providers remove the content, i.e. overblocking.
We therefore recommend raising the minimum requirements to the noti cations requiring the
noti ers to make substantiated noti cations.
No grace period
Considering the legislative process, which includes the standstill period, it is most likely that the
second and third reading of the bill will be end May or June 2022, i.e. a sho time before the
proposed entering into force. As the nal wording of the law will therefore not be available until at
the earliest in June, it will be very di cult for service providers to implement the extensive new
procedures required before 1
st
September 2022. Google therefore strongly encourages the
regulators to implement a grace period in order for the service providers to be able to comply with
the nal wording of the law.
Dispropo ionate retention obligation
It is Google's view that the retention obligation as set out in § 5(7) is dispropo ionate and
unnecessary.
In the comments to the DDSA
18
it is stated that the retention obligation is introduced in order to
ensure that the law enforcement can investigate the lawfulness of the removed content, if the
content is repo ed to the police.
However, the retention obligation covers all "illegal" content, as de ned by § 3(1) and is thus not
restricted to content subject to criminal prosecution. Since the police does not need content
related to "illegal" content subject to e.g. private prosecution or civil law, given that the police is
simply not competent in these ma ers, the scope of the retention obligation is broader than what is
in fact necessary to meet the purpose of the obligation.
When processing, including retention, of personal data is based on a legal obligation, the legal
obligation must be limited to the processing activities that are necessary and propo ionate
compared to the purpose behind the legal obligation.
The obligation in § 5(7) is thus not in compliance with a icle 52 of the Cha er of Fundamental
Rights of the European Union.
****
Google shall be pleased to present its views at a meeting with the Competition and Consumer
Authority.
Best regards
Christine Sørensen
18
Page 78
13(13)
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0059.png
Att:
Louise Cifuentes og Susanne Aamann
[email protected]
og [email protected]
20. januar 2022
Vedr.: Udkast til lovforslag om regulering af sociale medier
Børns Vilkår vil gerne takke for, at vi kan give høringssvar på et emne, som i særlig grad optager os,
da vi har mange samtaler om emnet og de konsekvenser, som manglende eller langsommelig
handling fra online tjenesteudbydere resulterer i på BørneTelefonen. Konsekvenserne spænder
bredt fra seksuelt krænkende til mobbende materiale.
Som gruppe er børn og unge særligt udsat på online tjenester. Og de har ret til særlig beskyttelse
både offline og online.
Børns leg og hverdagsliv er i stigende grad flyttet ind på internettet gennem spil, streaming og
sociale medier. Det rejser nye problemstillinger vedrørende børns sikkerhed og rettigheder.
I Børns Vilkårs og Medierådet for Børn og Unges rapport ’Digital Dannelse i børnehøjde’ (2019) fandt
vi bl.a., at en stor del af børnene deler billeder af hinanden. 29 pct. af børnene i undersøgelsen har
oplevet at et andet barn har delt billeder af dem, uden de havde fået lov. Derfor mener vi, at den
nye lovgivning også skal hjælpe med at fjerne uønsket indhold og ikke kun det direkte ulovlige. Dette
materiale kunne f.eks. være billeder og videoer, som bliver anvendt til at mobbe og ikke er uploadet
af den forurettede.
Undersøgelsen peger på, at der er ulighed i børnenes digitale dannelse
børn, der fortæller, at de
kommer fra hjem med færre penge end andre, udsættes i højere grad for billeddeling end andre
børn. På samme måde gælder det, at børn, der oplever at have færre ressourcer end andre, også
oftere deler billeder og videoer af andre uden at have fået lov. Der er derfor også en social slagside,
som den nye lovgivning skal tage højde for, når krav om tilgængelighed og sprog ved anmeldelse og
kvittering udarbejdes at tjenesteudbydere.
Da lovforslagets stammer fra regeringens udspil ’Sociale mediers ansvar:
skærpede krav og digital
dannelse af børn og unge’, vil Børns Vilkår gerne påpege, at
Børns Vilkår ikke har deltaget i
arbejdsgruppen. Vi vil med dette gøre opmærksom på, at vi ikke tidligere har kunnet bidrage med
forslag eller opmærksomhedspunkter, hvorfor nedstående er vores første mulighed for at
kommentere. Vi håber derfor, at vores opmærksomhedspunkter bliver taget til særlig efterretning,
da vi kan belyse børn og unges perspektiv, situation og udfordringer i dette høringssvar.
Vores uddybede kommentarer til lovforslaget findes nedstående og I er velkomne til at kontakte
politisk konsulent Sørine Vesth på [email protected], hvis I har spørgsmål.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0060.png
Venlig hilsen
Rasmus Kjeldahl
Direktør
Ad § 2, stk. 1 om anvendelsesområdet
Der lægges i lovforslaget op til, at platformen skal have over 100.000 brugere for at den kommende
lovgivning finder anvendelse. I Børns Vilkår vil vi gerne gøre opmærksom på, at 100.000 i et
forholdsvis lille land som Danmark er mange.
Vi anbefaler, at grænsen nedsættes betydeligt, f.eks. til 30.000.
Vi anbefaler derudover, at platforme, som har brugere under 18 år skal have en endnu lavere
brugergrænse, da børn og unge er ekstra udsat online.
Ad § 2, stk. 1 om anvendelsesområdet:
Der lægges i lovforslaget op til, at gruppebeskedtjenester med plads til over 5.000 brugere for at den
kommende lovgivning finder anvendelse. Igen mener vi i Børns Vilkår, at dette er et meget højt tal.
Som Umbrella-sagen og andre billeddelingssager viser, deles ulovligt indhold ekstremt hurtigt
Børns Vilkår anbefaler at grænsen på 5.000 brugere sættes ned og at ved tjenesteudbydere, som har
brugere under 18 år, anbefales den, at den sættes yderligere ned.
Ad § 4, stk. 1
Børn har krav på ekstra beskyttelse. Hvis tjenesteudbyderen har en aldersgrænse, der kan anvendes
af brugere under 18 år, skal dette indgå i udarbejdelsen af funktioner, der er lette at bruge for
brugere under 18 år. Det der er let for en 35-årig, er ikke nødvendigvis lige så let at gennemskue for
en 13-årig.
§ 4, stk. 2
Anmeldelsen skal kunne ske anonymt, så den anmeldte ikke får at vide, hvem der har anmeldt dem,
jf. stk. 4, hvor ’uvedkommende’ skal inkludere
at den anmeldte heller ikke bliver bekendt med
anmelderen.
Ad § 4, stk. 3
For organisationer som Børns Vilkår og Red Barnet, som er ’trusted flaggers’ hos flere
tjenesteudbydere og derfor kan anmelde via fast track for at afhjælpe forskellige børn, som vil have
ulovligt eller skadeligt materiale af dem selv fjernet, skal der være undtagelser til § 4, stk. 3 om
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0061.png
’trusted flaggers’. Det skal ligeledes noteres, at Børns Vilkår anbefaler, at der tages hensyn til, om
materialet anmelderen anmelder er legitimt. I så fald skal tjenesteudbydere ikke kunne
forhåndsafvise en anmelder, som legitimt har anmeldt ulovligt indhold af flere omgange eller
hyppigt. Hvis ikke, risikerer lovgivningen at give anmelderen en følelse af, at deres stemme ikke
tages alvorligt. I samme ombæring, anbefaler Børns Vilkår at brugere under 18 år som anmelder,
skal få fast track til at få deres anmeldelse vurderet.
Ad § 5 stk. 3.
Børns Vilkår anbefaler, at § 5, stk. 3 skal inkludere en undtagelse, hvis materialet indeholder et barn
der enten er der fysisk eller beskrevet, f.eks. ved navn, og anmelderen er det udstillede barn. At
beskrive eller lægge uønskede videoer og billeder online anvendes af nogle til at udstille, chikanere
og mobbe. Derfor skal tjenesteudbydere altid fjerne materiale af børn, hvis barnet anmoder om det,
da man som barn ikke skal have materiale liggende online, som man ikke vil, f.eks. folk som omtaler
én grimt.
Ad § 6. stk. 7
Børns Vilkår anbefaler, at hvis brugeren er registreret som under 18 år, skal der i formuleringen
tages hensyn til dette, så svaret gives i et let forståeligt sprog, hvor det skal stå utydeligt klart
hvordan anmelderen kan klage over afgørelsen. Derudover anbefales det, at det fremgår, hvor
anmelderen kan henvende sig, f.eks. til BørneTelefonen m.fl., for at få støtte og rådgivning om de
konsekvenser, den manglende nedtagning af materiale kan have.
Termet ‘forældre’
Børns Vilkår er enig med Erhvervsministeriet i, at det vil være hensigtsmæssigt, hvis ikke kun brugere
kan anmelde, da dette vil give forældre mulighed for i højere grad at hjælpe børn og unge. Vi vil dog
anbefale, at det anvendte term
’forældre’
enten
fortolkes bredt eller udskiftes til ’omsorgspersoner’,
så f.eks. pædagoger på døgninstitutioner, plejeforældre mfl. kan hjælpe barnet.
Notice and stay down
Selvom en lovsikret tidsgrænse har en stor betydning for ofre og pårørende, løser det ikke alle
udfordringerne. Det samme ulovlige billede- og videomateriale bliver ofte uploadet på ny og delt
igen og igen, også i tilfælde, hvor en domstol har erklæret indholdet ulovligt.
Det betyder, at opgaven med at finde og anmelde ulovligt billede- og videomateriale ligger hos ofre,
pårørende og myndigheder. Det er ofte en umulig opgave, da det ulovlige billede- og videomateriale
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0062.png
kan deles til alle tider, på mange forskellige sider og tjenester, som ofre eller politiet ikke
nødvendigvis har adgang til som f.eks. lukkede grupper.
Børns Vilkår anbefaler, at regeringen tilføjer krav om, at sociale medier forpligtes til at forhindre
genuploads og deling af ulovligt indhold, som sociale medier og andre digitale tjenester allerede er
blevet bekendt med.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0063.png
Konkurrence- og Forbrugerstyrelsen
Louise Cifuentes [email protected] og Susanne Aamann [email protected].
21. januar 2022
Høringssvar vedr. udkast til lovforslag om regulering af sociale medier
Producentforeningen skal hermed afgive høringssvar til lovforslag om regulering af sociale
medier. Producentforeningens høringssvar relaterer sig kun til den del af lovforslaget, der
handler om gamingtjenester.
Producentforeningen repræsentarer blandt andet spiludvklere, der udvikler og distribuerer
computerspil, herunder spil, hvor brugerne kan kommunikere i spillet. Foreningen og udvik-
lerne har generelt stor interesse i at beskytte børn og unge mod skadeligt indhold. Det skal
være trygt og sikkert at spille spil, og vi bakker op om initiativer, der sikrer, at brugerne ikke ud-
sættes for ulovligt indhold i forbindelse med online spil. Producentforeningens medlemmer
har til stadighed fokus på at indføre tiltag som fx community selvovervågning, automatiske
systemer samt systemer, der alene tillader tekstbaseret kommunikation og altså ikke upload
af video, billeder eller lignende og hvor chatteksten forsvinder efter 10-20 sekunder uden mu-
lighed for at blive genskabt, og fx PEGI’s code of conduct giver en anerkendt og brancherele-
vant anvisning til, hvordan ulovligt, krænkende eller skadeligt indhold skal fjernes fra platfor-
mene.
Producentforeningens overordnede holdning er, at retningslinjerne skal være enkle at forstå
og efterleve. Det skal være så administrativt enkelt at leve op til kravene som muligt, og vi op-
fordrer kraftigt til, at branchen ikke pålægges unødige omkostninger. Producentforeningen
tilslutter sig desuden høringssvar fra EGDF og ISFE, hvor en fælleseuropæisk spilbranche frem-
hæver de særlige forhold, som gør sig gældende i forhold til spil. I det europæiske høringssvar
fremhæves det blandt andet, at lovforslaget tilsyneladende er tænkt som en midlertidig re-
gulering indtil DSA gennemføres, og at der derfor bør være en solnedgangsklausul for ret-
ningslinjerne i det aktuelle lovforslag. Det bakker Producentforeningen op om.
Producentforeningen vil derudover primært opfordre til, at definitionerne skærpes. Det er ikke
tydeligt, om ”gamingtjenester” dækker over de platforme, som stiller spil til rådighed for bru-
gerne (eksempelvis Steam), tjenester der tilbyder kommunikation om computerspil
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0064.png
(eksempelvis Twitch eller Discord) eller om gamingtjenester også omfatter selve spillene, hvor
der kan være mulighed for at kommunikere i selve spillet med fx chatfunktioner. Det er uhen-
sigtsmæssigt, at der ikke i lovforslagets definition skabes klarhed over, hvilke typer platforme
eller tjenester, der er omfattet.
For så vidt angår lovforslagets grundlæggende præmis om at udbyderen af gamingtjenester
skal vurdere, hvorvidt noget er lovligt inden for ganske korte, ufravigelige frister, synes det
uforholdsmæssigt og alt for vidtgående at pålægge udbyderne pligt til at vurdere al indholds
lovlighed i enhver henseende. Producentforeningen er af den opfattelse, at lovgiver bør præ-
cisere og ikke pålægge udbydere af gamingtjenester mere vidtgående forpligtelser end ri-
meligt.
Endelig opfordrer Producentforeningen til, at det genovervejes, hvorvidt analysedata skal
kunne afkræves af alle gamingtjenester uanset størrelse og karakter og uanset hvor mange
danske brugere, tjenesten har. Det foreslås i lovforslaget, at styrelsen kan indhente oplysnin-
ger til brug for analyser, også fra platforme og tjenester, der har under 100.000 brugere i Dan-
mark. For mange små udbydere vil det være en anseelig byrde at levere dokumentation, og vi
opfordrer til, at der også for pligten til at levere data til analyser gælder en nedre grænse på
100.000 brugere i Danmark.
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0065.png
Dansk Iværksætter Forening
Frederikskaj 4
2450 København SV
Til Konkurrence- og Forbrugerstyrelsen
Louise Cifuentes [email protected]
Susanne Aamann [email protected]
København, 20. januar 2022
Høringssvar angående lovforslag om regulering af sociale medier
I Dansk Iværksætterforening tillader vi os at afgive høringssvar på lovforslag om regulering af
sociale medier. Vi har i flere år deltaget i debatten om revidering af e-handelsdirektivet, og vi
støtter arbejdet med DSA’en og indholdet på flere punkter.
Vi appellerer overordnet til, at der vises politisk forståelse for to grundlæggende forhold omkring
platformsøkonomien. Først og fremmest har platformsøkonomien været en kæmpe vækstfaktor
for danske startups. Vi har set flere hundrede nye startups vokse ud af denne udvikling med
virksomheder som Vivino, Tattoodo, Trustpilot og Too Good To Go som eksempel på spydspidser
i vores økosystem, og sidstnævnte ligeledes som eksempel på nye og innovative løsninger til at
spare ressourcer sammen med eksempelvis nyere innovative spillere som Blue Lobster eller
Freshland. Platformsøkonomien har afgørende betydning for danske startups og nye
iværksættere.
Det andet forhold er, at man ved at indføre tunge administrative regler (som man gør i dette
lovforslag med for eksempel meget vidtgående krav til kommunikationen frem og tilbage med de
mange brugere der anmelder indhold mere eller mindre velbegrundet, voldsomme tidsfrister,
detaljerede rapporter om firmaets arbejde og ansatte, kontaktpunkter der ikke må være
automatiserede, osv.) ofte empirisk opnår det modsatte af intentionen. Man beskytter de store, der
har ressourcer til at udvikle eller anskaffe teknologi eller hyre folk og specialister. Finanssektoren
er et eksempel på, hvordan man har øget
compliance
omkostningerne og dramatisk forhøjet
indgangsbarriererne. Konsekvensen er, at konkurrencen er blevet stækket og man har hegnet de
store aktører ind. Dette forhold er også på spil i forhold til de meget store platforme, der med
tunge processer, teknologi og kompetencer kunstigt kan beskytte deres respektive positioner.
Såkaldte SMV-undtagelser kan virke på områder, som ikke omhandler kerneforretningen i en
virksomhed. Fx kan øgede revisionskrav sagtens virke, da en iværksætter i takt med sin vækst må
forventes at have ressourcer til at efterleve mere skrappe regler. Men når det handler om selve
kerneforretningen, vil SMV-undtagelser som foreslået blive en stopklods allerede fra dag 1.
Hvilken iværksætter ønsker at kaste sig over sådan et område, og hvilken investor vil tage
risikoen?
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0066.png
Oprindelseslandsprincippet bør følges
Vi ser med stor bekymring på, at man ikke i Danmark har valgt at følge principper om
oprindelseslandet, der netop er grundstenen i det indre digitale marked, og forudsætningen for,
at man som dansk virksomhed kan skalere i EU. Hvis vi skal gøre os forhåbninger om at
konkurrere med scaleups fra Kina og USA, er det helt fundamentalt, at vores virksomheder kan
tage afsæt i +500 mio. forbrugere i EU. Det er netop dette hensyn vi talrige gange har forsvaret i
EUs Digital Services Act (DSA’en), og som nu Danmark tilsyneladende ønsker at forlade. Kan
man forestille sig, at Vivino ikke må sælge vin med regnbueflag på etiketten i Ungarn eller
Tattoodo en tatovering med det catalanske flag i Spanien? At skulle leve op til 27 lovgivninger i
udgangspunktet er dræbende for enhver god idé.
Forhold mellem ansvar og bøder skaber adgangsbarrierer for SMV’er
Endelig er der forholdet mellem ansvar og bøder, som flere toneangivende debattører har
fremhævet i ind- og udland. Konsekvenserne vil være uhensigtsmæssige, og igen blot bidrage til
at hæve
barriers of entry.
Danmark bør følge Digital Services Act og droppe enegang
Vi appellerer på det kraftigste til, at Danmark følger DSA’en, hvor netop ovenstående
diskussioner om
compliance, liability
og
country of origin
har været drøftet i forhold til de meget
vigtige hensyn omkring beskyttelse af forbrugere og ulovligt indhold. Dansk enegang vil stikke
en kæp i hjulet for danske ambitioner om at skabe nye vækstvirksomheder i et symbolsk forsøg
på at begrænse de store platforme med risiko for, at man opnår det stik modsatte. Vi vil gerne
pointere, at man netop i
Digital Markets Acts (DMA)
har langt bedre redskaber til at stække de
store platformes udbredelse og dominerende markedspositioner.
Vi deltager naturligvis gerne i den videre dialog
Med Venlig Hilsen
Peter Kofler
Formand, Dansk Iværksætter Forening
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0067.png
Konkurrence- og Forbrugerstyrelsen
Carl Jacobsens Vej 35
2500 Valby
E-mail:
[email protected]
og
[email protected]
WILDERS PLADS 8K
1403 KØBENHAVN K
TELEFON 3269 8888
[email protected]
MENNESKERET.DK
DOK. NR. 21/03708-2
21. JANUAR 2022
HØRINGSSVAR OVER UDKAST TIL LOV OM
REGULERING AF SOCIALE MEDIER
Konkurrence- og Forbrugerstyrelsen har ved e-mail af 20. december
2021 anmodet om Institut for Menneskerettigheders eventuelle
bemærkninger til udkast til lov om regulering af sociale medier.
I høringssvaret har instituttet valgt at fokusere på følgende seks
hovedproblematikker:
1. Risiko for overregulering.
2. Sociale mediers indholdsmoderation.
3. Manglende klagemuligheder.
4. Uklart anvendelsesområde.
5. Massemedier ikke omfattet.
6. En effektiv retshåndhævelse.
Instituttet indleder med at sammenfatte sine væsentligste
bemærkninger:
SAMMENFATNING
Med lovudkastet foreslår Konkurrence- og Forbrugerstyrelsen at
indføre en ny lov, som blandt andet skal regulere visse
kommunikationsplatforme, gruppebeskedstjenester, datingstjenester
og gamingtjenesters indholdsmoderation. Lovudkastet har som sit
primære formål at sikre, at der ikke er ulovligt indhold på disse
platforme og tjenester.
Instituttet finder det positivt, at regeringen med lovudkastet vil styrke
indsatsen mod ulovligt indhold på blandt andet sociale medier, skabe
større transparens om en tjenesteudbyders indholdsmoderation,
opstille krav i forhold til klageprocedurer og vejledning af brugere ved
anmeldelse af indhold, samt indføre tilsyn med, at tjenesteudbydere
lever op til de foreslåede regler på området.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0068.png
Risiko for overregulering
I lovudkastet foreslås det, at tjenesteudbyderen efter modtagelse af en
anmeldelse om ulovligt indhold skal træffe afgørelse om at fjerne,
blokere eller fastholde det anmeldte indhold (lovudkastets § 5). Denne
afgørelse skal som udgangspunkt træffes inden for 24 timer – ellers kan
tjenesteudbyderen få en bøde.
Tjenesteudbyderne vil skulle afgøre ulovligheden af meget store
mængder indhold, uden at der gælder de retsgarantier og den
ytringsfrihedsbeskyttelse, som staten er forpligtet til at sikre. Ikke
mindst fordi udbyderne skal foretage vurderingen af, om indhold er
ulovligt samt fjerne det med kort tidsfrist og med risiko for økonomisk
sanktion. Der er således et incitament til at fjerne indhold hurtigt, men
intet incitament til at sikre beskyttelse af ytringsfriheden.
Instituttet er af den overbevisning, at de foreslåede regler efter § 5 kun
skal finde anvendelse på klart ulovligt indhold. Dette for så vidt muligt
at undgå, at indhold fjernes af tjenesteudbydere for at være på den
sikre side til skade for ytringsfriheden.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen ændrer den foreslåede § 5, så det kun er klart
ulovligt indhold, som er omfattet.
Sociale mediers indholdsmoderation
I lovudkastet foreslås det, at tjenesteudbyderen skal udarbejde en
rapport til Konkurrence- og Forbrugerstyrelsen og offentliggøre
rapporten på sit websted. Rapporten skal indeholde en række
oplysninger om udbyderens indholdsmoderation og behandling af
anmeldelser
På trods af, at lovudkastet anerkender den væsentlige rolle de sociale
medier spiller for den offentlige samtale samt hensynet til
ytringsfriheden, indeholder udkastet ingen krav om, at
tjenesteudbyderes afrapportering efter § 8 skal indeholde en
beskrivelse af, hvilke konsekvenser deres moderationspraksis har for
ytringsfriheden.
Instituttet ønsker at gøre opmærksom på, at de sociale medier i praksis
spiller en meget væsentlig rolle for den offentlige samtale og dermed
også for borgernes mulighed for at udøve deres ytrings- og
informationsfrihed. Derfor anbefaler også Ytringsfrihedskommissionen
2/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0069.png
og FN’s specialrapportør for ytringsfrihed, at hensynet til ytringsfrihed
skal afspejles i de sociale mediers indholdsmoderation.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen indsætter et krav om, at tjenesteudbyders
afrapportering efter den foreslåede § 8 skal indeholde en
beskrivelse af, hvilke konsekvenser deres moderationspraksis har
for ytringsfriheden.
Manglende klagemuligheder
I lovudkastet foreslås det, at der skal kunne klages over de processuelle
krav, som lovudkastet indeholder. Det drejer sig om mangler ved
anmeldelsesproceduren, mangler ved efterprøvelsesproceduren,
mangler ved overholdelse af tidsfristerne og mangler i de oplysninger,
som tjenesteudbyderen er forpligtet til at afgive i forbindelse med sin
afgørelse af, om indhold skal fjernes, blokeres eller fastholdes.
En klager har ikke ret til at få prøvet, om det var rigtigt eller forkert, at
indhold blev fjernet eller ikke blev fjernet. Instituttet bemærker, at det
således ikke foreslås i lovudkastet, at Konkurrence- og
Forbrugerstyrelsen skal kunne tage stilling til, om anmeldt indhold er
omfattet af lovudkastets definition af ulovligt indhold, og dermed skal
fjernes eller blokeres i overensstemmelse med de foreslåede regler.
Instituttet anbefaler, at der etableres et uafhængigt nævn med en
dommer som formand, der – også af egen drift - kan vurdere konkrete
og principielle sager om hvilken type indhold, der skal fjernes eller blive
efter lovudkastets § 5. Borgerne bør have adgang til at klage til det
uafhængige nævn for at styrke kontrollen med tjenesteudbydernes
materielle vurdering af ulovligt indhold og dermed øge beskyttelsen af
borgernes retssikkerhed og ytringsfrihed. Samtidig kan nævnet via
principielle sager være med til at skabe større klarhed over grænserne
for indholdsmoderation, herunder fællesskabsregler, for
tjenesteudbydere og borgere.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen etablerer et uafhængigt dansk nævn med en
dommer som formand, der af egen drift kan vurdere konkrete og
principielle sager om indhold efter den foreslåede § 5, og som
borgere har klageadgang til.
1. RISIKO FOR OVERREGULERING
Efter den foreslåede § 5, stk. 1, skal tjenesteudbyderen efter
modtagelse af en anmeldelse om ulovligt indhold træffe afgørelse om
3/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0070.png
at fjerne, blokere eller fastholde det anmeldte indhold. Afgørelsen skal
baseres på en vurdering af, om der er tale om ulovligt indhold. Det
fremgår af lovudkastet, at ”ulovligt indhold” skal defineres bredt og
omfatte alt indhold, som er ulovligt efter til enhver tid gældende ret (de
almindelige bemærkninger, afsnit 2.1.1.2.).
Det foreslås efter samme bestemmelse, at tjenesteudbyderens
afgørelse som udgangspunkt skal træffes inden for 24 timer, hvis det
kan ske uden nærmere undersøgelse. Hvis det dog ikke kan ske uden
nærmere undersøgelse, kan afgørelsen træffes op til 7 dage efter, eller
op til 14 dage efter, hvis blandt andet det anmeldte indholds
kompleksitet, længde eller sprog kræver længere tid til at foretage
vurderingen af, om indholdet er ulovligt efter gældende ret. ”Uden
nærmere undersøgelse” skal forstås som, at indholdets lovlighed med
rimelighed kan identificeres og vurderes af en påpasselig
erhvervsdrivende (de specielle bemærkninger til § 5).
Instituttet har flere gange problematiseret, at sociale medier vil skulle
afgøre ulovligheden af meget store mængder indhold, uden at der
gælder de retsgarantier og den ytringsfrihedsbeskyttelse, som staten er
forpligtet til at sikre.
1
Efter menneskeretten skal en stat således leve op
til betingelser som lovlighed, et legitimt formål og nødvendighed
(proportionalitet) for at kunne foretage indgreb i ytringsfriheden.
2
Efter lovudkastet pålægges private tjenesteudbydere at vurdere
ulovligheden af meget store mængder indhold, som kan udgøre
overtrædelser af straffelov, markedsføringslov, ophavsretslov med
videre. Hvis denne vurdering af ulovligheden af konkret indhold blev
foretaget af en offentlig myndighed, ville myndigheden have en
forpligtelse til at sikre, at indgrebet (fjernelse af indhold) levede op til
ytringsfrihedens krav om lovlighed, legitimt formål og nødvendighed
(proportionalitet). Når en stat pålægger virksomheder at fjerne ulovligt
indhold og sanktionerer undladelse heraf, beder den virksomheden om
at gribe ind på statens vegne. Det er i den forbindelse statens ansvar at
Se eksempelvis instituttets policy brief fra marts 2021 om beskyttelse
af ytringsfriheden når sociale medier fjerner indhold. Tilgængelig på:
https://menneskeret.dk/udgivelser/beskyttelse-ytringsfriheden-naar-
sociale-medier-fjerner-indhold;
Institut for Menneskerettigheder,
Techgiganterne, ytringsfriheden og privatlivet, 2020. Tilgængelig på:
https://menneskeret.dk/udgivelser/tech-giganterne-ytringsfriheden-
privatlivet.
2
Se eksempelvis Den Europæiske Menneskerettighedskonventions
artikel 10, stk. 2, og FN’s Konvention om Borgerlige og Politiske
rettigheders artikel 19.
1
4/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0071.png
sikre, at loven administreres under respekt for ytrings- og
informationsfriheden.
3
Tjenesteudbydere skal efter lovudkastet foretage vurderingen af, om
indhold er ulovligt samt fjerne det med kort tidsfrist og med risiko for
økonomisk sanktion. Der er således et incitament til at fjerne indhold
hurtigt, men intet incitament til at sikre beskyttelse af ytringsfriheden.
Denne risiko for overregulering er dokumenteret i flere undersøgelser.
4
Instituttet er derfor af den overbevisning, at de foreslåede regler efter §
5 kun skal finde anvendelse på klart ulovligt indhold. Dette for så vidt
muligt at undgå, at indhold fjernes af tjenesteudbydere for at være på
den sikre side til skade for ytringsfriheden ved usikkerhed om, hvorvidt
der er tale om ulovligt indhold, og dermed for at undgå at få en bøde.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen ændrer den foreslåede § 5, så det kun er klart
ulovligt indhold, som er omfattet.
2. SOCIALE MEDIERS INDHOLDSMODERATION
Efter den foreslåede § 8, skal tjenesteudbyderen udarbejde en rapport
til Konkurrence- og Forbrugerstyrelsen og offentliggøre rapporten på sit
websted. Rapporten skal indeholde en række oplysninger om
udbyderens indholdsmoderation og behandling af anmeldelser. Det
inkluderer blandt andet en beskrivelse af, hvilke indsatser
tjenesteudbyderen gør for at forhindre ulovligt indhold på sin platform
eller tjeneste, og en beskrivelse af de interne beslutningskriterier, som
tjenesteudbyderen lægger til grund for sin afgørelse efter § 5.
Ytringsfriheden påvirkes ikke kun af de sociale mediers ansvar for
ulovligt indhold men også af den indholdsmoderation, som de sociale
medier foretager med udgangspunkt i deres egne fælleskabsregler.
Hertil kommer de sociale mediers udvælgelse af, hvilket indhold den
enkelte præsenteres for eller har mulighed for at tilgå.
Justitsministeriet, Ytringsfrihedens rammer og vilkår i Danmark:
Betænkning afgivet af Ytringsfrihedskommissionen, betænkning nr.
1573, del 2, side 640. For en nærmere gennemgang af de
menneskeretlige forpligtelser se Institut for Menneskerettigheder,
Techgiganterne, ytringsfriheden og privatlivet, 2020, afsnit 5.1.
Tilgængelig på:
https://menneskeret.dk/udgivelser/tech-giganterne-
ytringsfriheden-privatlivet.
4
For en oversigt over studier se the Center for Internet and Society ved
Stanford Universitet, Empirical evidence of ”over-removal” by internet
companies under intermediary liability laws. Tilgængelig på:
http://cyberlaw.stanford.edu/blog/2015/10/empirical-evidence-over-
removal-internet-companies-under-intermediary-liability-laws.
3
5/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0072.png
Fællesskabsregler er de sociale mediers vilkår og betingelser for indhold
på deres platforme, som i princippet er uafhængige af, om indlæggene
er lovlige efter national ret. Da tjenesteudbyderne er private
virksomheder, udgør deres fjernelse af indhold efter fællesskabsregler
ikke formelt set et indgreb i ytringsfriheden. Instituttet ønsker dog at
gøre opmærksom på, at de sociale medier i praksis spiller en meget
væsentlig rolle for den offentlige samtale og dermed også for borgernes
mulighed for at udøve deres ytrings- og informationsfrihed.
Som Ytringsfrihedskommissionen anbefaler, bør hensynet til
ytringsfriheden afspejles i de sociale mediers indholdsmoderation.
Kommissionen henviser blandt andet til FN’s specialrapportør for
ytringsfriheds rapport om sociale medier.
5
Specialrapportøren
anbefaler, at sociale medier med videre skal foretage menneskeretlige
konsekvensanalyser. Specialrapportøren anbefaler desuden, at
virksomhederne bag platformene indfører og anvender FN’s
retningslinjer for menneskerettigheder og erhvervsliv, såvel som
industrispecifikke retningslinjer udviklet af civilsamfundet samt
internationale erhvervs- og interesseorganisationer, som udgangspunkt
for deres aktiviteter.
6
På trods af, at lovudkastet anerkender den væsentlige rolle de sociale
medier spiller for den offentlige samtale, samt hensynet til
ytringsfriheden, indeholder udkastet ingen krav om, at
tjenesteudbyderes afrapportering efter § 8 skal indeholde en
beskrivelse af, hvilke konsekvenser deres moderationspraksis har for
ytringsfriheden.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen indsætter et krav om, at tjenesteudbyders
afrapportering efter den foreslåede § 8 skal indeholde en
Justitsministeriet, Ytringsfrihedens rammer og vilkår i Danmark:
Betænkning afgivet af Ytringsfrihedskommissionen, betænkning nr.
1573, del 2, side 665.
6
FN’s Menneskerettighedsråd, Report of the Special Rapporteur on the
promotion and protection of the right to freedom of opinion and
expression, A7HRC/38/35, 6. april 2018, pr. 70. Institut for
Menneskerettigheder har udviklet vejledning specifikt til
konsekvensanalyser af digitale produkter, projekter eller
tjenesteydelser i tæt dialog med virksomheder, forskere og
civilsamfund. Tilgængelig på:
https://www.humanrights.dk/projects/human-rights-impact-
assessment-digital-activities.
5
6/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
beskrivelse af, hvilke konsekvenser deres moderationspraksis har
for ytringsfriheden.
3. MANGLENDE KLAGEMULIGHEDER
Efter den foreslåede § 13 vil erhvervsministeren fastsætte regler om, at
der skal kunne klages over de processuelle krav, som er indeholdt i de
foreslåede bestemmelser §§ 4-7. Det drejer sig således om mangler ved
anmeldelsesproceduren, mangler ved efterprøvelsesproceduren,
mangler ved overholdelse af tidsfristerne og mangler i de oplysninger,
som tjenesteudbyderen er forpligtet til at afgive i forbindelse med sin
afgørelse af, om indhold skal fjernes, blokeres eller fastholdes. Det
foreslås desuden, at Konkurrence- og Forbrugerstyrelsen skal have en
prioriteringsadgang. Det betyder, at klagere ikke har en ret til at få
deres sag behandlet, herunder individuelt behandlet (de almindelige
bemærkninger, afsnit 2.6.1.2.).
Instituttet bemærker, at det i lovudkastet ikke foreslås, at Konkurrence-
og Forbrugerstyrelsen skal kunne tage stilling til, om anmeldt indhold er
omfattet af lovudkastets definition af ulovligt indhold, og dermed skal
fjernes eller blokeres i overensstemmelse med de foreslåede regler. Det
er dermed kun mangler ved en tjenesteudbyders efterlevelse af
lovudkastets processuelle krav, som brugere kan klage over.
Instituttet anbefaler, at der etableres et uafhængigt nævn med en
dommer som formand, som – også af egen drift - kan vurdere konkrete
og principielle sager om, hvilken type indhold der skal fjernes eller blive.
Borgerne bør have adgang til at klage til det uafhængige nævn for at
styrke kontrollen med tjenesteudbydernes materielle vurdering af
ulovligt indhold og dermed øge beskyttelsen af borgernes retssikkerhed
og ytringsfrihed. Samtidig kan nævnet via principielle sager være med
til at skabe større klarhed over grænserne for indholdsmoderation,
herunder fællesskabsregler, for tjenesteudbydere og borgere.
Hvis Konkurrence- og Forbrugerstyrelsen følger instituttets anbefaling
ovenfor om at ændre den foreslåede § 5, så det kun er klart ulovligt
indhold, som er omfattet, kan styrelsen eventuelt også lade det være
op til det uafhængige nævn at vurdere, om øvrigt indhold – der ikke er
klart ulovligt - er ulovligt og burde være fjernet. Dette kan efter
instituttets opfattelse være med til at sikre en effektiv gennemførelse af
lovgivningen og forebygge overimplementering fra tjenesteudbydernes
side til skade for ytringsfriheden.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen etablerer et uafhængigt dansk nævn med en
7/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
dommer som formand, der af egen drift kan vurdere konkrete og
principielle sager om indhold efter den foreslåede § 5, og som
borgere har klageadgang til.
4. UKLART ANVENDELSESOMRÅDE
Det fremgår af lovbemærkningerne, at online kommunikation via
direkte beskeder, hvor afsenderen har forudbestemt modtagerkredsen,
ikke er omfattet af lovudkastet. Derudover er tjenesteudbydere af en
kommunikationsplatform ikke omfattet af forpligtelserne efter de
foreslåede bestemmelser §§ 4-7, hvis der er tale om anmeldelser
vedrørende lukkede grupper, som tillader under 5000 brugere på deres
kommunikationsplatform. Gruppebeskedstjenester, der tillader et
deltagerantal på under 5000, er heller ikke omfattet. Grænsesætningen
er baseret på hensynet til privatlivets fred og hensynet til, at
afsenderen og modtageren ved individuel kommunikation har en
berettiget forventning om, at de ytrer sig i et privat og lukket rum (de
almindelige bemærkninger, afsnit 2.1.1.2.).
Instituttet anerkender, at det er vigtigt at beskytte retten til privatliv og
ytringsfrihed – også i privat rum. Det er dog efter instituttets vurdering
uklart, hvilke lukkede grupper og gruppebeskedstjenester, der i praksis
vil være omfattet af lovudkastet, hvis der skal være adgang for over
5000 deltagere, før reglerne finder anvendelse. Dette især når et af
hovedformålene med loven er at fremme beskyttelsen mod ulovligt
indhold, som der er set flere eksempler på deles i netop lukkede
grupper og gruppebeskedstjenester på sociale medieplatforme.
Efter instituttets vurdering er det uklart, hvorfor gaming- og
datingtjenester er omfattet, mens individuelle
kommunikationstjenester ikke er det. Det fremgår af
lovbemærkningerne, at grunden til dette er, at gaming- og
datingtjenester ofte initieres mellem parter, som ikke kender hinanden
på forhånd (de almindelige bemærkninger, afsnit 2.1.1.2.). Instituttet
ønsker dog at bemærke, at det samme forhold kan siges om
eksempelvis kommunikationstjenesterne Facebook Messenger, Zoom,
WhatsApp og Snapchat. Instituttet finder det også uklart, hvorfor der
ikke skal tages det samme hensyn til privatlivets fred og brugernes
berettigede forventning om, at de ytrer sig i et privat og lukket rum ved
anvendelse af gaming- og datingtjenester.
Det er efter instituttets vurdering særdeles vigtigt, at det i
lovbemærkningerne eksemplificeres og præciseres, hvilke tjenester der
vil være omfattet og undtaget reglerne, herunder om eksempelvis
Facebook Messenger, WhatsApp, Snapchat og Zoom er omfattet. Det
8/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0075.png
skal være med til at sikre en klar retstilstand for borgerne, som skal
have mulighed for at forudse, om de tjenester de anvender, er
underlagt de foreslåede regler om blandt andet anmeldelse af indhold.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen i lovbemærkningerne præciserer og
eksemplificerer, hvilke tjenester der er omfattet og undtaget loven.
5. MASSEMEDIER IKKE OMFATTET
Efter den foreslåede § 2, stk. 8, er indhold fra massemedier i
medieansvarsloven ikke omfattet af lovudkastet, i det omfang
massemediet og indholdet herfra er underlagt et redaktionelt ansvar i
medfør af medieansvarsloven. Det betyder, at aviser og tv-stationers
sider på sociale medier og kommentarsporet til opslag på disse, ikke vil
være omfattet af de forpligtelser, som tjenesteudbydere skal leve op til
i forhold til at fjerne eller blokere ulovligt indhold. Det fremgår af
lovbemærkningerne, at det skyldes, at Erhvervsministeriet vurderer, at
der ellers ville være tale om unødvendig dobbeltregulering (de
almindelige bemærkninger, afsnit 2.1.1.2.).
Instituttet bemærker, at praksis fra Pressenævnet viser, at såkaldt
uredigeret indhold ikke er omfattet af medieansvarsloven.
7
I september
2018 vurderede nævnet eksempelvis, at kommentarfunktionen til
opslag på DR Nyheders Facebookside ikke var omfattet af loven.
Nævnet vurderede også, at redaktionens efterfølgende sletning af
kommentarer ikke indebærer, at der er foretaget en sådan redigering,
at forholder falder ind under medieansvarslovens område af den
grund.
8
Samme synspunkt fremgår ligeledes af Dansk Journalistforbund
og Danske Mediers vejledning til de presseetiske regler.
9
Instituttet udgav i 2017 en undersøgelse med fokus på omfanget og
karakteren af hadefulde ytringer fremsat i kommentarsporene på DR
Nyheder og TV2 Nyhedernes Facebooksider. Undersøgelsen fandt, at
hver syvende kommentar der blev indsamlet, havde et hadefuldt
indhold og var rettet mod personers politiske holdning, etnicitet,
religion eller køn. På baggrund af en spørgeskemaundersøgelse blandt
Institut for Menneskerettigheder, Demokratisk deltagelse på
Facebook, 2019, side 68f. Tilgængelig på:
https://menneskeret.dk/udgivelser/demokratisk-deltagelse-paa-
facebook.
8
Sagsnummer 2018-80-0170.
9
Dansk Journalistforbund og Danske Medier, GUIDE presseetiske
regler, 2013, side 8. Tilgængelig på:
https://journalistforbundet.dk/guide-til-de-presseetiske-regler.
7
9/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0076.png
Facebook-brugere viste undersøgelsen også, at den hårde tone afholder
godt halvdelen af brugerne fra at udtrykke deres mening og deltage i
debatten.
10
I 2020 foretog den juridiske tænketank Justitia desuden en
undersøgelse, der viste, at et stort antal strafbare kommentarer stod
tilbage, på trods af sletning af kommentarer på fem danske
nyhedsmediers Facebooksider. Justitia vurderede, at der for hver
strafbar kommentar der slettes, står tre-fire strafbare kommentarer
tilbage, der ikke bliver slettet.
11
Det er instituttets vurdering, at også kommentarer til massemediers
opslag på sociale medier bør være omfattet for at opnå et af
hovedformålene med loven, nemlig at fremme beskyttelsen mod
ulovligt indhold på sociale medieplatforme.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen ændrer lovudkastet, så også kommentarer til
massemediers opslag på tjenesteudbydernes platforme omfattes af
de foreslåede regler.
6. EN EFFEKTIV RETSHÅNDHÆVELSE
Tjenesteudbydere kan allerede i dag ansvarliggøres for ulovligt indhold
på deres platforme efter e-handelslovens § 16, hvis de bliver gjort
bekendte med indholdets eksistens. Det er dog uklart, hvad
rækkevidden af dette ansvar er i praksis. Det er ligeledes uklart, under
hvilke omstændigheder et socialt medie kan ifalde medvirkensansvar
efter erstatnings- og strafferetten. Instituttet har derfor anbefalet, at
anklagemyndigheden prøver sager mod sociale medier ved domstolene
for at klargøre, hvor grænserne for disse mediers ansvar for ulovligt
indhold på deres platforme går i tilfælde af en konkret anmeldelse.
Ytringsfrihedskommissionen anbefaler også et skærpet fokus på
retshåndhævelse og retsforfølgning af grove overtrædelser af
ytringsfrihedens grænser online. Kommissionen har udtalt, at den
Institut for Menneskerettigheder, Hadefulde ytringer i den offentlige
online debat, 2017. Tilgængelig på:
https://menneskeret.dk/udgivelser/hadefulde-ytringer-paa-facebook.
11
Justitia, Rapport: Digital ytringsfrihed og sociale medier, 2020.
Tilgængelig på:
http://justitia-int.org/digital-ytringsfrihed-og-sociale-
medier/.
10
10/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0077.png
finder den nuværende situation med manglende retsforfølgelse
uacceptabel.
12
Instituttet bemærker, at det ikke fremgår af lovudkastet, hvordan en
effektiv retshåndhævelse af de foreslåede regler sikres. Det fremgår
således ikke, om tjenesteudbydere har en pligt til at anmelde ulovligt
indhold til politiet, når de får kendskab dertil. Indførelsen af en sådan
rapporteringspligt kan efter instituttets opfattelse være med til at sikre
netop en effektiv efterforskning og retshåndhævelse til gavn for
retssikkerheden for det enkelte offer.
Institut for Menneskerettigheder anbefaler, at Konkurrence- og
Forbrugerstyrelsen overvejer at indføre en rapporteringspligt for de
omfattede tjenesteudbydere, hvis udbyderne får kendskab til klart
ulovligt indhold på deres platforme.
Der henvises til styrelsens sagsnummer 21/10976-2.
Med venlig hilsen
Louise Holck
DIREKTØR
Justitsministeriet, Ytringsfrihedens rammer og vilkår i Danmark:
Betænkning afgivet af Ytringsfrihedskommissionen, betænkning nr.
1573, del 2, side 657.
12
11/11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0078.png
ISFE-EGDF Comments on the draft law to regulate social media - Forslag til Lov om
regulering af sociale medier
January 2022
The Interactive Software Federation of Europe (ISFE) and the European Games Developer Federation
(EGDF) (with the support of ANGI, the Association for the Nordic Game Industry) are very grateful for
this opportunity to comment on the proposal for a draft law to regulate social media.
Introduction
Video games are one of
today’s
most popular creative and entertainment products and are enjoyed by
people from all age groups. The creative and artistic endeavour that is put into video games is
substantial, and sometimes the development budgets for new video games surpass those for major
film productions.
Denmark is home to some of Europe’s
most successful and innovative game
development studios, such as SYBO Games and IO interactive. Furthermore, Denmark is world-famous
for its active indie game developer community that is pushing the boundaries of games as an artistic
medium. The local games industry ecosystem is furthering investment and job creation in this growing
sector.
ISFE and EGDF would like to present our views on the proposal for a draft law to regulate social media.
This draft law would replicate some of the provisions in the upcoming Digital Services Act (DSA), but
would also introduce provisions in conflict with those in the DSA and that would cause unnecessary
regulatory fragmentation and legal uncertainty.
The video games industry has had a strong commitment to minor protection for many years, as we
explain below. DSA-like
provisions to tackle illegal content have been part of the industry’s PEGI Code
of Conduct since 2007 and video games companies have in place tools, safeguards and technology to
keep their services free from illegal and harmful content. As a result, video games companies only very
rarely encounter illegal content on their services.
Like in other creative sectors, such as films, music or books, there is a large variety of video game
genres and types. Not all video games offer in-game communication features and not all players use
such features. But where they are available, in-game communication features that are offered by
video games companies and external, adjacent communication platforms that may be popular with
video games players, such as Discord, are two very different types of services. We would caution
against the use of broad terms that fail to distinguish between different activities and/or providers of
very different types of services.
The definition of
‘gaming service’
in the draft law
The draft law defines a gaming service as an online service which, for profit, allows the visitor to
create a profile and to share messages or presentations with content in characters, words, writing,
audio, images, or video primarily for the purpose of communicating about gaming.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0079.png
At first glance, this definition appears to focus on services with a primary purpose of communicating
about gaming rather than services with the primary purpose of facilitating gameplay, which may have
ancillary features that support in-game
communication. However, the term “gaming service” creates
confusion as to the scope of the definition.
The services of video games companies focus primarily on selling and distributing games
1
and
facilitating the online play of those games. Where games companies offer in-game communication
features, those features are primarily designed to support gameplay. This means that they often focus
on communication within a small team, or are limited in length or type, and that players have the
ability to limit who they can hear from. In some games, for example, players may only have a small list
of message options to send (e.g. “go over there”, “please help”, etc.). Video game players tend to
interact with new players that they do not already know for only short periods of time (e.g. for a single
match), before they are placed into a different group. Video game services that allow players to share
content with other players - respecting codes of conduct/terms and conditions - do not aim to reach
large undefined audiences. In-game communication features are there simply to allow for player
exchanges on and about the gameplay and are generally unsuitable for longer conversations, which
may take place on adjacent gaming communication platforms, such as Discord.
The Government’s comments explicitly recognise that many websites today offer their users an
interactive communication option, which is a secondary accessory to the primary function of the
website. The comments provide as an example a website which primarily contains journalistic or
editorial content, but that also has a comment section offering users the opportunity to share
messages. The comments state that it is the view of the Ministry of Industry, Business and Financial
Affairs that these interactive communication facilities between users cannot be considered to fall
within the definition of a communication platform, as they are not the primary function, but rather
the secondary function of the website.
We see no distinction whatsoever between such interactive communication facilities and those
provided by many video games companies. Communication channels in online games are clearly
ancillary to the main or primary service represented by the provision of games and gameplay facilities.
Therefore, we think that the draft law’s scope should be confined to what are often referred to as
‘video
gaming
adjacent’
services or platforms, i.e. services or platforms (such as Discord, Reddit or
Twitch) that are provided by third parties unrelated to video games companies and that allow their
users to chat and share content
“primarily for the purpose of communicating about gaming”.
2
ISFE and EGDF recommend that the draft law’s intention should be made crystal clear from the
beginning, rather than allowing the damaging impression to be formed that virtually all video gaming
services may fall within the scope of the draft law. If the Danish government fails to clarify the scope
of the law and create much needed legal certainty, the law could create a market access barrier for
European SMEs and fragment the digital single market for games.
1
The Government’s comments also state that the Ministry of Industry, Business and Financial Affairs considers that, “for the sake
of clarity,
it is appropriate for the scope to delineate in advance the types of online services specifically proposed to be exempt
from the Act.” These
are stated to include (as provided in Paragraph 6(2) of the draft law) “services primarily intended for the brokering or sale
of goods or
services”.
The
Government’s comments
implicitly recognise this where they state that
“gaming
services aim, for example, to make a profit
by selling their developed products to customers through microtransactions and loot boxes or to require prepayment for downloading or
accessing the game. In addition, gaming services may, for example, aim to make profits through subscription schemes, by offering companies
marketing space in their games or by making products or updates available in the game for a fee.”
2
Such services, of course, do not sell video games or provide gameplay services to their users and would, therefore, be unable to rely upon
the exclusion or exemption contained in Paragraph 6(2) of the draft law.
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0080.png
The proposal for a draft law and the forthcoming DSA Regulation
The Government states in the introduction to its comments on the draft law that an initiative against
the widespread and rapid proliferation of illegal content cannot wait for the DSA to be implemented,
and that it is therefore considered important that,
“pending the entry into force of the DSA”,
national
measures are put in place to ensure that service providers take greater responsibility for taking down
illegal content as soon as possible and increase transparency about their content moderation.
It is not entirely clear from the use of the words
“pending the entry into force of the DSA”
that the
proposed national measures will cease to apply on the entry into force of the DSA, although such an
interpretation would seem entirely reasonable. If it is considered necessary to adopt a new law to
counter the proliferation of illegal content pending the entry into force of the DSA, we think that the
proposed law should contain a “sunset clause” clearly providing that the
law will cease to apply on the
date of entry into force of the DSA. This would provide necessary legal certainty for services providers.
In its request for comments on the proposed law by 21 January 2022, the Competition and Consumer
Authority states that
“obligations
in the Social Media Regulation Act can only be maintained to the
extent that they are in line with the obligations in the [DSA] Regulation.”
This, however, is quite
different to legislating pending the entry into force of the DSA or until the DSA enters into force, and
would require, in our view, an ex-post evaluation of the compliance of the provisions of the Social
Media Regulation Act with the adopted provisions of the DSA. Uncertainty regarding when and by
whom such an evaluation would be carried out and regarding its results would inevitably lead to legal
uncertainty for services providers unsure about the precise extent of their legal obligations in
Denmark following the entry into force of the DSA.
It is very difficult, in our view, to reconcile the proposal for a new law
“pending the entry into force of
the DSA”
or, indeed, the maintenance of obligations in that law following the DSA’s
entry into force
with the stated position of the Danish Government in its response to the European Commission’s
public consultation on the DSA in September 2020. In that response, the Danish Government stated
that the DSA
“should be a regulation to ensure effective and uniform application”
and that it
“should
ensure a true Single Market absent of regulatory fragmentation and with a level playing field based on
uniform application, implementation and enforcement.”
Regarding a harmonised notice and takedown
procedure, the response stated that the DSA
“should
establish a framework for notice and take-down
with a clearly defined procedure, safeguards and timeline for acting on notifications on illegal content
and ensure uniform procedures in all Member States.”
The
Danish Government’s
response further acknowledged that
“digital
services providers and internet
intermediaries are increasingly being met with diverging legal and procedural requirements.
Altogether, such legal fragmentation causes legal uncertainty, administrative burdens, and
unnecessary barriers to trade within the Single Market. Rather than fostering a competitive
environment, the fragmented legal landscape favours larger, well-established firms who can afford the
compliance costs. Therefore, the DSA must have a main aim of establishing a regulatory framework
that fosters an effective Single Market based on clear and harmonised rules that can overcome the
complexity and legal fragmentation of the current framework. With a view to accomplishing these
goals, the Danish Government urges the Commission to propose a Union Regulation that ensures
harmonised and effective application.”
The Danish Government’s explicit recognition in its DSA consultation response of the dangers of
legal fragmentation and its clear support for a DSA Regulation that ensures harmonised and
effective application does not sit well, in our view, with its proposal for a draft law to regulate social
media in the very same year that the DSA will be adopted.
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0081.png
The European Commission has been very clear that after the DSA is adopted and enters into force, it
will prevail over national laws. Member States will not be able to keep or introduce parallel laws to
oversee how services providers handle content online. We agree with the European Commission that
Member States should postpone the implementation of national measures where these concern a
matter covered by a legislative proposal at EU level. In our view, the Danish Government should
abandon its proposal for a draft law to regulate social media and instead focus on the DSA and on
ensuring that it will establish a regulatory framework that fosters an effective Single Market based on
clear and harmonised rules that can overcome the complexity and legal fragmentation of the current
framework.
While ISFE and EGDF do not believe that the proposal for a draft law is specifically directed at services
such as those provided by our members, we would nevertheless like to share our observations on the
proposed provisions around notifications of illegal content and transparency reporting requirements
as these are also matters covered by the DSA proposal.
Notifications of illegal content
The draft law proposes that service providers should be obliged to establish a user-friendly procedure
for dealing with notifications of illegal content, including a requirement for service providers to make a
decision to remove, block or retain content within 24 hours of receiving a notification (which may be
extended to 7 and, exceptionally, to 14 days).
ISFE and EGDF have publicly welcomed the proposed requirement in Article 14 of the DSA for hosting
services providers (which most video games companies are) to put in place easy to access, user-
friendly notice and action mechanisms. We believe that a harmonised notice and action procedure
across the EU with minimal administrative burdens for all parties involved will provide greater legal
certainty. We also support a requirement for hosting services providers to maintain effective ‘counter-
notice’ systems for users whose content is removed.
While we support an obligation to establish user-friendly notice and action mechanisms, we believe
that specific time limits for the removal of illegal content are arbitrary and manifestly not future-
proof. Very short deadlines (such as the 24 hours proposed in the draft law) also increase the risk of
the over-removal of content and create a market access barrier for SMEs that do not have the same
level of resources available 24/7 as large companies. We think that retention of the current E-
Commerce Directive
requirement to “act expeditiously” is a much more effective approach, which
better fits the horizontal and long-term nature of the DSA.
We would also be opposed to some of the specific requirements that are set out in Sections 4, 5, 6 and
7 of the draft law which we would regard as unnecessarily burdensome, and which clearly go beyond
what will be provided for in the DSA.
Transparency reporting requirements
The draft law would also require service providers to provide transparency reports containing
information on compliance with their obligations under the draft law and details of their own efforts
to counter illegal content under their own guidelines and terms of service.
4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0082.png
Article 13 of the DSA also provides for transparency reporting requirements which we regard as
disproportionate and unnecessarily burdensome, especially for SMEs and services providers that only
rarely encounter the presence of illegal content on their services.
3
Video games companies only very rarely encounter illegal content on their services, and for a long
time have gone to considerable lengths to prevent the appearance of any such content and to ensure
a high level of consumer and minor protection. DSA-like provisions to tackle illegal content have been
part of the games
industry’s PEGI Code of Conduct since 2007 and
video games companies have in
place tools, safeguards and technology to keep their services free from illegal and harmful content.
They also have tools in place to limit or disable online interaction. As a result, games
companies’
services do not play an important role in the dissemination of illegal content online and are clearly not
amongst the DSA’s intended targets. This has been recognised in recent reports such as the UK’s 2020
Ofcom online harms survey
4
, which found that video game platforms rarely disseminate illegal
content, compared to other online platforms. Further, as stated in a recent report
5
by the
EU’s
Radicalisation Awareness Network, activities associated with terrorism, such as grooming, rarely occur
in in-game chats, but more frequently on adjacent communication platforms.
The draft law should not unfairly single out the video games industry
In its comments on the draft law, the Government states there is
“no
regulation in place specifically
designed to oblige gaming service providers to moderate
illegal content.”
In this context, it would
seem that the Government is including video games companies that sell video games or video games
services in the term ‘gaming
service providers’.
It is not, however, stated in the Government’s
comments why it might be the case that there is no regulation in place to oblige gaming service
providers to moderate illegal content. The reason why
“gaming service providers”
(in the wider sense
of most video games companies) have not to date been singled out for regulation designed to oblige
them to moderate illegal content is because such content is very rare on their services, as has been
recognised in recent reports such as the UK’s 2020 Ofcom online harms survey
referred to above,
which found that, compared to other online platforms, video game platforms rarely disseminate illegal
content.
Video games companies have for a long time gone to considerable lengths to prevent the appearance
of any such content on their services and to ensure a high level of consumer and minor protection:
DSA-like
provisions to tackle illegal content have been part of the industry’s PEGI
Code of
Conduct since 2007. PEGI
signatories are required to ensure that appropriate reporting
mechanisms are in place to allow players to notify illegal or offensive behaviour by other
players, and they can take appropriate actions, such as excluding players from the service
or notifying the authorities.
Video games companies
make every effort to ensure that online communities and
interactions are safe and do not expose players to harm.
Video games companies invest in
community management in order to build healthy and inclusive communities. They have put
in place player support practices, tools, safeguards and technology to keep their services free
from illegal and harmful content, including age gating, reporting tools, filtering software,
3
We also fear that they could provide information to rogue players that would allow them to ‘game’ the system
and to
circumvent services providers’ content moderation and community management efforts.
4
https://www.ofcom.org.uk/__data/assets/pdf_file/0024/196413/concerns-and-experiences-online-harms-
2020-chart-pack.pdf
5
https://ec.europa.eu/home-affairs/system/files/2020-11/ran_cn_conclusion_paper_videogames_15-
17092020_en.pdf
5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0083.png
moderation, and muting tools. They also provide parents with tools to limit or disable online
interaction.
In rare cases and when requested to do so, video games companies comply with requests
from law enforcement authorities to assist with specific monitoring, where, for example,
a specific threat to the safety of children has been identified and they support
investigations to bring criminals who break the law in online games to justice.
The sector also invests in the education of players, parents and others about how to tackle
potentially harmful content
6
.
As a result,
games companies’
services do not play an important role in the dissemination of illegal
content online.
We do not dispute, of course, that video games services that allow users to communicate with each
other during a gaming session via, for example, multiplayer voice or chat functions, may be used to
share content that is illegal. Nor do we dispute that as these types of services are often used by
children and young people, it is particularly important that users are protected against exposure to
illegal content, for example by adults whose purpose on the services is not gaming. We must,
however, strongly dispute the false impression that is given by the Government’s comments (and by
the specific reference to gaming services in the draft law) that such video games services are widely
used to disseminate illegal content. In the absence of any evidence to the contrary, we would appeal
to the Danish Government not to single out the one industry that has led the way in preventing the
appearance of illegal content on its services, an effort that has been widely recognised and praised by
the European Commission and others over many years.
About ISFE
ISFE represents the video games industry in Europe and is based in Brussels, Belgium. Our
membership comprises national trade associations in 15 countries across Europe which in turn
represent thousands of developers and publishers at national level, ranging from SMEs to large global
companies. ISFE also has as direct members the leading European and international video games
companies and console manufacturers, many of which have studios with a strong European footprint.
They produce and publish interactive entertainment and educational software for use on personal
computers, game consoles, portable devices, mobile phones and tablets.
ISFE’s purpose is to serve Europe’s video games ecosystem by ensuring that the value of games is
widely understood and to promote growth, skills, and innovation policies that are vital to strengthen
the video games sector’s contribution to Europe’s digital future.
The video games sector represents
one of Europe’s most compelling economic success stories. Relying on a strong IP
framework, the
sector is a rapidly growing segment of the creative industries. In 2020, the size of Europe’s video
games industry was €23.3 billion and European revenues grew by 22% compared to 3% in 2019, 15%
in 2018 and 18% in 2017. Video games have a proven ability to successfully drive new business
models. The digital transformation with the growth of online and app-based gaming represents today
80% of the industry’s total European revenues. Via the launch of new high-performance
consoles and
the strong growth of mobile gaming, the industry offers players across Europe and in all age groups
the possibility to enjoy and engage with video games.
Today 50% of Europe’s population plays video
games, which is approximately 250 million people, and 54% of the players regularly play on consoles.
6
See Denmark’s Play Safe Campaign:
PLAY SAFE
En guide for forældre (angi-nordic.com)
and other countries
here:
Responsible gameplay in your country - ISFE
6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0084.png
About EGDF
The European Games Developer Federation e.f. (EGDF) unites national trade associations representing
game developer studios based in 19 European countries: Austria (PGDA), Belgium (FLEGA), Czechia
(GDACZ), Denmark (Producentforeningen), Finland (Suomen pelinkehittäjät), France (SNJV), Germany
(GAME), Italy (IIDEA), Lithuania (LZKA), Netherlands (DGA), Norway (Produsentforeningen), Poland
(PGA), Romania (RGDA), Serbia (SGA), Spain (DEV), Sweden (Spelplan-ASGD), Slovakia (SGDA), Turkey
(TOGED) and the United Kingdom (TIGA). Altogether, through its members, EGDF represents more
than 2,500 game developer studios, most of them SMEs, employing more than 40,000 people.
EGDF helps to build policies that support the growth of European game developer studios and
foster the development of the entire digital ecosystem in Europe.
The games industry represents
one of Europe’s most compelling economic success stories, relying on a strong IP framework, and is a
rapidly growing segment of the cultural and creative industries. The European digital single market
area is the third-largest
market for video games globally. In 2021, Europe’s video games market was
worth €23bn, and the industry has registered a growth rate
of 22% over 2020 in key European
markets. There are around 5,100 game developer studios and publishers in Europe, employing over
87,000 people.
For more information, please contact:
Dara MacGreevy
Senior Legal Counsel, ISFE
[email protected]
www.isfe.eu
or
Ann Becker
Head of Policy and Public Affairs, ISFE
[email protected]
www.isfe.eu
Jari-Pekka Kaleva
COO, EGDF
[email protected]
www.egdf.eu
7
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0085.png
Til
Konkurrence- og Forbrugerstyrelsen
Specialkonsulent Louise Cifuentes
[email protected]
d. 17/1-2022
Høringssvar vedr. lov om regulering af sociale
medier
IT-Branchen takker for høringen, og vil hermed afgive sine bemærkninger til det fremsatte
lovforslag om regulering af sociale medier.
Indledende bemærkninger
IT-Branchen forstår og støtter fuld ud det bagvedliggende formål med lovforslaget om at
begrænse ulovligt indhold på sociale medier. I takt med at sociale medier fylder mere i vores
hverdag, herunder også som platform for demokratisk samfundsdebat, er det afgørende, at
det er et sted, hvor danskerne trygt kan orientere og ytre sig.
Imidlertid har IT-Branchen, som også tidligere påpeget i det forudgående arbejde
med udarbejdelsen af lovforslaget, meget svært ved at se værdien i at gå dansk enegang
på et område, hvor fælleseuropæiske regler allerede er på plads eller er under udvikling. På
en række områder er elementer af lovforslaget allerede dækket af europæisk lov, og
samtidigt er fælleseuropæisk regulering af digitale tjenester på vej.
Digital Services Act (DSA) har således til formål netop at sikre en ensartet regulering
i alle medlemsstater, hvilket giver særligt god mening i en digital verden med globale spillere
og tjenester med forbrugere på tværs af landegrænser. Vi ser således den
fælleseuropæiske regulering som den bedste vej til at opnå de mål, som regeringen
efterstræber med nærværende lovforslag.
Dernæst vil IT-Branchen pege på den helt afgørende nødvendighed af i en regulering
– dansk som europæisk – at finde den rette balance i forhold til ikke utilsigtet at skade
informations- og ytringsfriheden. Korte deadlines i kombination med høje bødestraffe skaber
et stærkt incitament for platforme til at fjerne tvivlssager for at være på den sikre side. Det
risikerer at kompromittere ytringsfriheden, og udgør et demokratisk problem når platformene
har få dage til træffe afgørelse i sager, som domstolene ville bruge uger og måneder på at
afgøre.
I forlængelse heraf er IT-Branchen grundlæggende bekymret over, at loven pålægger
private virksomheder at foretage vurderinger af, hvad der er lovligt eller ulovligt ifølge dansk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0086.png
ret. Sådanne beslutninger indebærer vanskelige balanceringer af rettigheder, og ligger
derfor bedst hos domstolene eller andre relevante myndigheder – ikke hos private
virksomheder.
IT-Branchen mener således fortsat, at Danmark bør afstå fra en dansk særlov på
området, men i stedet afvente en implementering af den fælles EU-regulering. Den østrigske
KoPI-G har således mødt stærk kritik fra EU-kommissionen for ikke at være i
overensstemmelse med EU-reguleringen. Alternativt bør der i selve lovforslaget indsættes
en solnedgangsklausul, således at den danske særregulering udfases når DSA
implementeres, samtidigt med, at det nuværende lovforslag på en række områder tilpasses
de kommende DSA-regler.
Specifikke bemærkninger
Krav til behandling af anmeldelser og adgang til at klage
Industrien arbejder målrettet med at begrænse det ulovlige indhold, og er derfor i konstant
udvikling ved løbende at indføre nye sikkerhedsforanstaltninger. Dette gøres ved at
investere i automatiserede forsvar, så det er muligt at registrere, blokere og fjerne uægte
konti og aktivitet, samt ved at forbedre hastigheden og reaktionen på trusler under opsejling.
Alligevel er det med de store mængder brugergeneret indhold uundgåeligt, at
der vil opstå grundlag for anmeldelser som skal behandles. I en digital verden er det
imidlertid både nemt at ytre sig samt at klage. Derfor er der også en helt anden mængde af
ubegrundede klager end man ser i andre systemer. 84,5% af de juridiske klager, som
Youtube modtager under NetzDG, er ugyldige, utilstrækkelige eller simpelthen urigtige. Det
kræver mange ressourcer at håndtere og fejl er uundgåelige.
I betragtning af det omfang af anmeldelser, som tjenesteudbyderne opererer
med, illustreret ovenfor og set i lyset af mængden af ubegrundede anmeldelser, er kravet i
loven (§6.3) om aktivt at kommunikere også med konti, der fungerer automatisk eller
involverer sig i åbenlyst ubegrundet rapportering, ineffektivt. I stedet foreslår vi her et krav
om at udbyderne i transparency-rapporten skal inkludere oplysninger om indsatser
vedrørende falsk aktivitet.
IT-Branchen støtter generelt behovet for at informere brugerne i forbindelse
med anmeldelser i form af krav, der er på linje med DSA. Platforme og tjenester bør
imidlertid ikke pålægges en forpligtelse om at informere anmeldere om skridt, der tages efter
en anmeldelse, fx når det vil være til skade for en igangværende kriminel efterforskning.
Med lovforslaget fastsættes skarpe deadlines for behandling af anmeldelser. I stedet for
deadlines bør lovforslaget fastsætte, at nedtagning af online indhold bør ske “uden unødig
forsinkelse” som i E-handelsdirektivet. Jo alvorligere en overtrædelse, desto hurtigere
nedtagning. Som minimum bør indhold, der ikke er åbenlyst ulovligt, og som kræver
nærmere undersøgelser (som fx personkrænkelser) undtages deadlines under LRMS.
www.itb.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0087.png
Dette er ligeledes tilfældet med forslaget om, at klager skal afgøres inden for 7
dage. I betragtning af kompleksiteten af de afgørelser, der kan være påkrævet, anbefaler vi
at forlænge klagefristen, hvis en tidsfrist bibeholdes. IT-Branchen anbefaler at forlænge
fristen til fjorten dage.
Endvidere mener vi ikke, at kravet om at tjenesteudbyderne proaktivt skal
informere myndighederne om afgørelser, der tager længere end 7 dage, er proportionale
eller i brugernes interesse, særlig henset til privacy. Med NetzDG har Tyskland for nylig
introduceret en lignende pligt for sociale medier til proaktivt at rapportere ulovligt indhold til
myndighederne. Dette bliver nu gransket, da tiltaget har vist sig at medføre en høj grad af
usikkerhed.
Tjenesteudbydere kan gøre mere for at informere brugerne om processen
omkring anmeldelser og klager. Men ligesom at internettet
er grænseløst af natur, er
brugerne højst mobile. Bevægelse på tværs af grænser er ikke alene almindeligt i dag, men
anses for en fundamental rettighed for borgere i det europæiske fællesskab. Mange af
platformene tilbyder deres tjenester globalt, og har derfor indrettet deres
anmeldelsessystemer, så det i det lys fungerer bedst for brugerne.
Set fra industriens perspektiv, er kravet om at give brugerne oplysninger om
danske administrative processer, ikke i overensstemmelse med målet om at sikre, at
anmeldelsesprocesser er lette at håndtere og tilgå.
Oplysninger om myndighedsprocedurer,
såsom politianmeldelser og/eller klageprocesser med Konkurrence- og Forbrugerstyrelsen,
bør deles af den relevante offentlige myndighed og ikke en privat virksomhed, for at sikre
en korrekt juridisk proces.
I det tilfælde, hvor et krav om information om offentlige procedurer via
tjenesteudbyderne fastholdes, bør selve teksten til brugeren leveres af myndighederne for
at sikre nøjagtighed og sammenhæng på tværs af platforme.
Afrapportering
Som nævnt, redegør mange tjenesteudbydere frivilligt for deres arbejde med at holde deres
platforme sikre ved regelmæssigt at offentliggøre transparency-rapporter. Dog har online
platforme vidt forskellige politikker, processer og problemstillinger, og meningsfuld
gennemsigtighed ser forskellig ud fra tjeneste til tjeneste. Fælles er dog, at formatet på disse
rapporter er udviklet med brugeren i tankerne, og at de er tilgængelige og overskuelige.
LRMS kræver, at meget forskellige typer platforme indsender en
transparensrapport i samme, specifikke danske format. I stedet bør LRMS formulere en
generel, paneuropæisk målsætning for, hvad der kvalificeres som transparent, herunder
acceptere fleksible formater for datarapportering i forhold til, hvad der giver mening for
forskellige typer platforme.
Hyppigheden af transparensrapporterne varierer mellem platforme, og der
anmodes om en præcisering af den hyppighed, som loven kræver, hvilket vi mener bør
fastsættes i overensstemmelse med kravene i DSA. I det omfang, de indeholder de
nødvendige oplysninger og gøres offentligt tilgængelige på et websted, der deler dette link
www.itb.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0088.png
med agenturet, opfordrer vi til, at transparens-rapporterne bliver anset som en opfyldelse af
lovkravene.
Lovforslaget indeholder krav til, at detaljer omkring moderatorer og deres
uddannelse skal indgå i rapporten. At have menneskelige moderatorer, som har både
sproglig og kulturel viden, er en vigtig del af at opretholde kvaliteten og sikre platformens
sikkerhed. Det nøjagtige antal moderatorer, der er ansat på et givet tidspunkt, varierer dog
afhængigt af bl.a. brugervækst og indholdstendenser, og skal tilpasses i henhold til disse
faktorer. De oplysninger, der kræves i loven, bør tage højde for behovet for fleksibilitet, og
fokusere på tjenesteudbyderens evne til at yde grundig og korrekt support, i stedet for at
fokusere på individuelle medarbejdere.
At oplyse om det nøjagtige indhold af en pågældende udbudt uddannelse, fx
uddannelse indenfor ekstremistiske grupper, vil ikke bare potentielt medføre en øget risiko
for medarbejderne, men også risikere at underminere arbejdet med at holde visse aktører
væk fra platformen. Vi mener, at en mere generel bekræftelse på udbud af relevant
uddannelse i kombination med en dialog mellem tjenesteudbyderen og en relevant styrelse,
vil tjene samme formål, men uden at risikere hverken platformens eller den individuelle
medarbejderes integritet.
Vi anbefaler, at fleksibiliteten bevares i forhold til krav til information om de
processer og teknologiske værktøjer, der bruges til at adressere krænkende indhold. Kravet
om at give detaljerede oplysninger om indholdsmodererings-algoritmer vil fx muligvis ikke
være realistisk for alle tjenestetyper, og vil kunne medføre adgang til oplysninger, der gør
det muligt for fjendtlige aktører at omgå eller undergrave disse foranstaltninger.
Afslutningsvist ser vi i forhold til krav om afrapportering også her, både for så
vidt angår indhold og frekvens, behov for en regulering, der er i tråd med DSA, så der ikke
skal laves 27 forskellige typer rapporter for hver udbyder i EU, hvilket heller ikke vil gavne
gennemsigtigheden for forbrugerne.
Kontakt
Det er i tjenesteudbydernes interesse at være i dialog med offentlige myndigheder, og i
mange tilfælde findes der dedikerede indgange til at sikre rettidig og passende
kommunikation. At udpege individuelle medarbejdere, frem for dedikerede og ordentligt
bemandede afdelinger, kan reducere kvaliteten af kommunikationen ved at etablere en ren
postkassefunktion, eller sætte den enkelte medarbejder i en situation, hvor de ikke er i stand
til at holde berettiget fri.
Et krav om 48 timers bekræftelse via dedikerede kanaler, i kombination med
regelmæssig information om lokale kontaktpunkter, uden det foreslåede tidskrav, er at
foretrække.
Dataadgang
Loven giver en meget omfattende adgang for myndighederne til at kræve information fra
tjenesteudbyderne, herunder med henblik på analyse. Også her ser vi behov for at tilpasse
den danske regulering til DSA.
www.itb.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0089.png
Ikrafttræden
Afsluttende mener IT-Branchen, at lovforslaget fastsætter en meget kort frist for
ikrafttræden, der gør det urealistisk for platformene at nå at implementere reglerne givet den
mængde af it-produktudvikling, der skal ligge bag ændringerne. Vi ønsker derfor at opfordre
til en forlængelse af fristen, som tidligst bør være d. 1. januar 2023.
Vi har for nuværende ikke yderligere bemærkninger, men står gerne til rådighed for evt.
uddybende kommentarer.
Med venlig hilsen
Mette Lundberg
Direktør for politik og kommunikation
IT-Branchen
Telefon: +45 27 16 13 80
Mail: [email protected]
www.itb.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0090.png
Konkurrence- og Forbrugerstyrelsen
Carl Jacobsens Vej 35
2500 Valby
Sendt per email til
[email protected]
og
[email protected]
IT-Politisk Forening
c/o Jesper Lund
Carl Bernhards Vej 15, 2.tv
1817 Frederiksberg C
E-mail : [email protected]
Web : http://www.itpol.dk
Dato
: 21. januar 2022
Høringssvar vedr. udkast til lovforslag om
regulering af sociale medier
Hensigten med lovforslaget er at fremme beskyttelsen
mod ulovligt indhold på sociale medier og andre
onlineplatforme. Det er naturligvis et legitimt formål, men
bekæmpelsen af kriminalitet og lovovertrædelser er først
og fremmest en opgave for staten. Lovforslaget
uddelegerer imidlertid denne opgave til private
tjenesteudbydere, som efter en anmeldelse om ulovligt
indhold uden krav om begrundelse pålægges at foretage
en juridisk vurdering af det indhold, som brugerne har delt.
I denne privatiserede retshåndhævelse med ultrakorte
tidsfrister er der meget få retsgarantier for borgere, der
har delt indhold på sociale medier. Processen er ikke
opbygget med den neutralitet, som kan forventes ved de
rigtige domstole.
Korte tidsfrister og truslen om store bøder, hvis ulovligt
indhold ikke fjernes, giver sammen med andre elementer i
lovforslaget de private tjenesteudbydere et kraftigt
incitament til at fjerne det anmeldte indhold.
Ytringsfriheden omtales kun sporadisk i lovforlagets
bemærkninger. Erhvervsministeriet mener, at retten til
efterprøvelse kan beskytte mod at lovligt indhold bliver
fjernet, men lovforslaget giver samtidig de private
tjenesteudbydere en effektiv anvisning på hvordan de skal
undgå besværet med efterprøvelse. Lovforslagets fokus er
meget ensidigt på at fjerne anmeldt indhold uden nogen
hensyntagen til at beskytte ytringsfriheden.
Lovforslaget udgør et indgreb i den grundlæggende ret til
ytringsfrihed, fordi private tjenesteudbydere pålægges at
1
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
tage stilling til lovligheden af brugerindhold og fjerne det
inden for korte tidsfrister, hvis det vurderes som ulovligt.
Lovforslagets bemærkninger indeholder imidlertid ingen
vurdering af, om dette indgreb overholder betingelserne i
den Europæiske Menneskerettighedskonvention (EMRK) og
FN's Konvention om Borgerlige og Politiske Rettigheder
(ICCPR).
Den sandsynlige konsekvens af lovforslaget er at sociale
medier vil fjerne meget mere brugerindhold, både efter
anmeldelser og proaktivt med algoritmisk
indholdsmoderation, men at det ville ske på baggrund af
tjenesteudbydernes egne retningslinjer, ofte kaldet
”fællesskabsregler”, selv om de ensidigt er fastsat af
tjenesteudbyderne. Det viser erfaringerne fra Tyskland.
Det vil muligvis bidrage til det erklærede mål i
lovforslagets § 1 om at fjerne ulovligt indhold, men det vil
ske på den forkerte måde i forhold til lovforslagets egne
hensigter. Den forventelige øgede arbitrære anvendelse af
tjenesteudbydernes egne retningslinjer vil have stærkt
negative konsekvenser for borgernes ytringsfrihed.
Derudover rejser lovforslaget en række juridiske
problemstillinger i forhold til EU-retten (især DSA), som i
sig selv bør medføre, at lovforslaget ikke fremsættes på
nuværende tidspunkt.
Disse synspunkter uddybes i det følgende.
Konflikt med DSA
Lovforslaget har et betydeligt overlap med EU-
Kommissionens forslag om Digital Services Act (DSA) som
blev fremsat i december 2020, og hvor både Rådet og
Europaparlamentet på nuværende tidspunkt har vedtaget
deres forhandlingsposition. Et af formålene med DSA er at
sikre en harmoniseret europæisk regulering af forpligtelser
for online tjenesteudbydere og modvirke den
fragmentering, som nationale love som den tyske
Netzwerkdurchsetzungsgesetz (NetzDG) har skabt.
DSA-forslaget indeholder i artikel 14-15 et ”notice and
action” system, der ligesom lovforslagets §§ 4-6 pålægger
tjenesteudbydere en handlepligt ved anmeldelser af
ulovligt indhold. Det er usandsynligt, at DSA kommer til at
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
indeholde skarpe tidsfrister for behandling af anmeldelser
som NetzDG og nærværende lovforslag, da hverken
Kommissionens forslag eller Rådets og Europarlamentets
forhandlingsposition indeholder dette element. Eftersom
formålet med DSA er at harmonisere forpligtelser for
tjenesteudbydere, vil det formentlig udelukke, at krav om
specifikke tidsfrister for behandling af anmeldelser kan
fastsættes i national lov.
Ligeledes indeholder DSA-forslaget regler om efterprøvelse
af afgørelser (artikel 17-18), kontaktpunkter (artikel 10-11),
afrapporteringskrav for tjenesteudbydere (artikel 13 og 23)
og samarbejde mellem tilsynsmyndigheder baseret på
afsenderlandsprincippet (kapitel IV), som i betydeligt
omfang regulerer de samme forhold som lovforslaget, men
i de fleste tilfælde på en anden måde end lovforslaget.
Det fremgår af de almindelige bemærkninger pkt. 1, at
regeringen hilser DSA-forslaget velkommen. Efterfølgende
anføres det, at det er vigtigt, at der nationalt, indtil DSA
træder i kraft, indføres egne foranstaltninger for at sikre
fjernelse af ulovligt indhold og gennemsigtighed omkring
indholdsmoderation. Det efterlader betydelig usikkerhed
om, hvorvidt lovforslaget er ment som en midlertidig
foranstaltning indtil DSA træder i kraft. Der er ikke som
sådan nogen solnedgangsklausul i lovforslaget, eller en
redegørelse for konsekvenserne af de forudsigelige
konflikter med DSA.
I høringsbrevet udsendt sammen med lovudkastet nævnes
det dog, at ”forpligtelser i lov om regulering af sociale
medier alene [vil] kunne opretholdes i det omfang, de
flugter med forpligtelserne i forordningen [DSA].” På grund
af det betydelige overlap mellem lovforslaget og DSA, vil
store dele af den danske lov formentlig ikke kunne
opretholdes efter at DSA træder i kraft, og denne situation
kan indtræde allerede inden for et år fra den danske lovs
ikrafttræden.
Det danske lovforslag skal notificeres over for
Kommissionen i henhold til informationsprocedure-
direktivet (EU) 2015/1535, hvilket endnu ikke er sket. Hvis
Kommissionen meddeler Danmark, at lovforslaget vedrører
samme emne som et fremsat EU-forslag (DSA), vil
vedtagelsen af det danske lovforslag skulle udsættes 12-
18 måneder, jf. direktivets artikel 6, stk. 4 og 5. I så fald vil
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
den danske lov om regulering af sociale medier næppe
kunne træde i kraft før DSA.
Uanset om Kommissionen gør brug af denne mulighed i
informationsproceduredirektivet, vil der inden for en
relativt kort tidshorisont (formentlig under et år) være
behov for en omfattende revision af den danske lov om
regulering af sociale medier på grund af konflikter med
DSA. Uden denne revision vil der være betydelig juridisk
usikkerhed for både tjenesteudbydere og borgere om
hvilke dele af den danske lov, som fortsat gælder når DSA
er trådt i kraft. IT-Politisk Forening vil derfor anbefale, at
lovforlaget ikke fremsættes på nuværende tidspunkt.
Omfattede tjenesteudbydere
Lovforslaget omfatter kommunikationsplatforme,
gruppebeskedtjenester, datingtjenester og
gamingtjenester (i høringssvaret benævnt ”platforme”),
herunder sociale medier, som har mindst 100.000 brugere
i Danmark i gennemsnit i det forgangne kalenderår.
Brugere defineres som profiler, der er registreret på
platformen. Tilhørsforholdet til Danmark kan
tjenesteudbyderen bestemme ud fra brugerens IP-adresse
ved besøg på tjenesten eller brugerens egne oplysninger.
Der vil formentlig være visse platforme, som ikke er i stand
til at opgøre antallet at danske brugere, fordi de ikke
registrerer landeoplysningerne for deres brugere.
Internettet er et globalt kommunikationsnetværk, hvor
information kan flyde frit over landegrænser, og det er
langt fra givet, at alle platforme på internettet ser et
kommercielt behov for at registrere landeoplysninger om
deres brugere. IT-Politisk Forening vil derfor anbefale, at
afgrænsningen i § 2 formuleres som platforme ”der har
registreret over 100.000 brugere i Danmark”, eller
lignende.
Lovforslagets hensigt er formentlig at omfatte platforme,
der formidler en betydelig mængde indhold til og fra
brugere i Danmark. Til dette formål er antal registrerede
brugere generelt en dårlig målestok, da platforme kan
have et betydeligt antal inaktive brugere. En gammel
tjeneste som Myspace har et stort antal registrerede
brugere, hvoraf mange ikke har brugt deres konto i årevis.
4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Sociale medier især gør det nemt at oprette profiler, ofte
med et enkelt klik, og mange brugere opretter en profil,
som derefter hurtigt går i glemmebogen.
Det vil derfor være mere hensigtsmæssigt at afgrænse de
omfattede platforme ud fra antallet af aktive brugere. DSA
benytter denne metode til at afgrænse meget store
onlineplatforme i artikel 25.
Det er positivt i forhold til hensynet til privatlivets fred og
meddelelseshemmeligheden, at lovforslaget ikke omfatter
individuelle kommunikationstjenester. Det undrer dog IT-
Politisk Forening, at dette ikke gælder for individuelle
kommunikationstjenester i tilknytning til datingtjenester og
gamingtjenester. Behovet for beskyttelse af privat
kommunikation er bestemt ikke mindre for en
datingtjeneste, hvor der efter omstændighederne
udveksles særdeles følsomme og private oplysninger
mellem brugerne.
Lovforslagets definition af en gamingtjeneste samt de
forskellige undtagelser i § 2, stk. 6 vil i praksis efterlade en
betydelig fortolkningstvivl, da de tager udgangspunkt i det
indhold, som tjenesten primært er beregnet til. Det er ikke
ualmindeligt, at brugerne på en platform i betydeligt
omfang bidrager med andet indhold end det, som
tjenesten egentlig primært er beregnet til. LinkedIn var
måske oprindeligt ment som et ”fagligt forum” (som nr. 7 i
§ 2, stk. 6), men fungerer i dag reelt som et socialt medie,
hvor næsten alt bliver diskuteret.
Anmeldelsesordningen
Lovforslaget pålægger tjenesteudbydere at oprette en
anmeldelsesordning for ulovligt indhold. Det er tilladt for
tjenesteudbyderen at integrere den lovpligtige
anmeldelsesordning i en eksisterende anmeldelsesordning,
hvor brugerne typisk kan anmelde indhold som strider mod
platformens egne retningslinjer. Lovforslaget anbefaler
ligefrem dette, da der står i de specielle bemærkninger til
§ 4, at denne udformning af anmeldelsesfunktionen ”med
fordel” kan vælges af tjenesteudbyderen.
Hvis platformen vælger integration med den eksisterende
anmeldelsesordning er det imidlertid uklart, om
5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
lovforslaget omfatter alle anmeldelser eller kun de
anmeldelser, hvor anmelderne udtrykkeligt angiver, at de
anmelder ulovligt indhold. På Facebook, YouTube og en
række andre sociale medier vil platformens egne
retningslinjer ”forbyde” en masse indhold, som ikke strider
mod dansk lov. En del af lovforslagets bestemmelser, ikke
mindst pligten til at opbevare det anmeldte indhold og
dertil hørende kontooplysninger med henblik på udlevering
til politiet, bør ikke gælde for lovligt indhold, som alene
fjernes fordi det strider mod platformens egne
retningslinjer.
IT-Politisk Forening vil derfor anbefale, at det præciseres,
at anmelderen skal angive, om der anmeldes ulovligt
indhold eller indhold, som strider mod platformens egne
retningslinjer (hvis platformen giver mulighed for denne
type anmeldelser), og at lovforslagets bestemmelser i
§§ 4-7 kun gælder for anmeldelser af ulovligt indhold.
Anmelderens angivelse af dette kan enten ske ved
separate anmeldelsesfunktioner for de to situationer, eller
ved at anmelderen i en fælles anmeldelsesfunktion ved
afkrydsning af et felt (eller lignende aktiv handling)
angiver, at der anmeldes ulovligt indhold.
En klar adskillelse mellem anmeldelser af ulovligt indhold
og øvrige anmeldelser (indhold der strider mod
platformens egne retningslinjer) vil på samme tid styrke
indsatsen mod ulovligt indhold, som jf. § 1 er lovforslagets
formål, og retsgarantierne for de brugere som får lovligt
indhold fjernet. Når der anmeldes ulovligt indhold, bør det
ikke være muligt for tjenesteudbyderen at undgå
forpligtelsen til efterprøvelse i lovforslagets § 7 ved at
fjerne indholdet med henvisning til tjenesteudbyderens
egne retningslinjer, jf. bemærkningerne herom nedenfor i
høringssvaret.
Ulovligt indhold omfattet af lovforslaget
Ulovligt indhold, der er omfattet af lovforslaget, defineres i
§ 3, nr. 1 som indhold, som er i strid med den til enhver tid
gældende lov. Det er meget vidtgående i forhold til
NetzDG, som kun gælder for bestemte overtrædelser af
den tyske straffelov.
Når der indgives en anmeldelse, skal tjenesteudbyderen
6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
inden for en kort tidsfrist tage stilling til, om det anmeldte
indhold er ulovligt. Hvis indholdet ikke fjernes inden for
den korte tidsfrist, skal tjenesteudbyderen altså principielt
stå inde for, at det anmeldte indhold ikke overtræder
nogen dansk lov. En sådan vurdering vil kræve et
omfattende kendskab til alle danske love og tilhørende
retspraksis. Der er samtidig ikke noget krav om, at
anmelderen i forbindelse med anmeldelsen angiver hvilke
love, som det anmeldte indhold eventuelt kan overtræde,
eller på anden måde begrunder anmeldelsen.
Den relevante lovgivning for brugerindhold omfatter ikke
bare straffeloven, men også en del speciallovgivning, som i
mange tilfælde kun vil gælde, hvis brugerens indhold deles
med et erhvervsmæssigt formål. En ”anbefaling” af C-
vitamin mod coronavirus vil være lovligt indhold for
almindelige brugere, men hvis det sker i et
erhvervsmæssigt sigte, kan det efter omstændighederne
være vildledende reklame for lægemidler (og dermed
ulovligt indhold), jf. Justitsministerens besvarelse af
spørgsmål nr. 18 til lovforslag L 157 i folketingsåret 2019-
20.
Det forekommer ikke realistisk, at udenlandske
tjenesteudbydere, som lovforslaget i praksis primært vil
rette sig mod, har et så omfattende og detaljeret kendskab
til dansk lovgivning og retspraksis, at de kan foretage
denne komplicerede juridiske vurdering af det anmeldte
indehold inden for 24 timer (eller 7 dage i visse tilfælde).
Med lovforslagets grænse på 100.000 danske brugere (end
ikke aktive brugere), er det ikke bare techgiganter som
Google og Facebook der bliver omfattet. Loven vil gælde
for mange andre tjenesteudbydere. Hvor mange
tjenesteudbydere, og hvilke ressourcer de reelt har til
rådighed for indholdsmoderation, har Erhvervsministeriet
ikke gjort noget forsøg på at vurdere. Det er i sig selv
kritisabelt at denne konsekvensanalyse ikke er foretaget.
Idet lovforlaget under trussel om store bøder pålægger
tjenesteudbydere at fjerne eller blokere ulovligt indhold
inden for 24 timer, eller 7 dage i visse tilfælde, vil
tjenesteudbyderne naturligvis altid kunne overholde deres
forpligtelser efter loven og undgå risikoen for store bøder
ved at fjerne det anmeldte indhold, hvis der er bare den
mindste tvivl om, hvorvidt indholdet er lovligt eller ulovligt.
7
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Efter IT-Politisk Forenings vurdering er dette scenarie den
sandsynlige konsekvens af lovforslaget. Det vil imidlertid
have vidtrækkende konsekvenser for ytringsfriheden.
IT-Politisk Forening vil anbefale at lovforslaget kun omfatter
specifikke overtrædelser af straffeloven, hvor det ulovlige
indhold kan have store konsekvenser for de berørte
personer eller den offentlige orden. Det kan eksempelvis
være digitale sexkrænkelser, materiale med seksuelt
misbrug af børn (CSAM) og opfordringer til vold og terror
(ikke ment som en udtømmende liste).
Det vil samtidig sikre, at tjenesteudbydernes indsats mod
ulovligt indhold prioriterer netop de mest alvorlige
lovovertrædelser, således at eksempelvis nøgenbilleder
delt uden tilladelse bliver fjernet hurtigere end et indlæg
på sociale medier, hvor der tilbydes koncertbilletter til
overpris i strid med gældende lov om videresalg af billetter
til kultur- og idrætsarrangementer.
Mulighed for anmeldelser fra myndigheder
er problematisk
Efter lovforslaget kan anmeldelsesfunktionen også bruges
af offentlige myndigheder, som derefter pålægger private
tjenesteudbydere at tage stilling til lovligheden af indhold
delt af platformens brugere, endda med ultrakorte
tidsfrister i forhold til hvad danske domstole og
administrative myndigheder selv bruger på lignende
juridiske vurderinger. Der stilles ingen egentlige krav for at
offentlige myndigheder kan bruge anmeldelsesordningen.
En simpel mistanke om, at det anmeldte indhold er ulovligt
er tilsyneladende tilstrækkeligt.
I de specielle bemærkninger til § 4 omtales denne
mulighed som et ”nyttigt værktøj” for kontrolmyndigheder,
som har svært ved at få tjenesteudbydere i tale. Det er
imidlertid problematisk, at dette værktøj kan bruges af
staten til at presse private tjenesteudbydere til at fjerne
indhold, hvor der kan være tvivl om lovligheden. Når
tjenesteudbyderen modtager en anmeldelse om ulovligt
indhold fra en offentlig myndighed, vil der i de fleste
tilfælde være en formodning hos tjenesteudbyderen om, at
indholdet rent faktisk er ulovligt, uanset at ingen domstol
8
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
eller sågar administrativ myndighed hverken formelt eller
reelt har taget stilling til dette spørgsmål.
Det virker meget usandsynligt, at en tjenesteudbyder efter
en anmeldelse fra en offentlig myndighed vælger at
fastholde det anmeldte indhold, ikke mindst når dette valg
senere kan medføre store bøder for tjenesteudbyderen.
Der vil uundgåeligt være en betydelig risiko for, at
myndigheder misbruger denne ordning til at presse private
tjenesteudbydere til at fjerne uønsket, men (formentlig)
lovligt indhold. Et (hypotetisk) eksempel kunne være
misinformation på sociale medier om coronavacciner, som
synes at have betydelig opmærksomhed fra
sundhedsmyndighedernes side.
Efter IT-Politisk Forenings opfattelse bør offentlige
myndigheder under ingen omstændigheder have adgang
til at benytte en anmeldelsesordning, hvor private
tjenesteudbydere derefter pålægges af udføre en opgave
med at vurdere lovligheden af det anmeldte indhold.
Offentlige myndigheder bør i stedet gå til domstolene for
at få påstået ulovligt indhold fjernet, eller selv træffe en
myndighedsafgørelse med et påbud om fjernelse af det
ulovlige indhold i de (forhåbentlig) begrænsede
situationer, hvor dansk lov eller EU-lov udtrykkeligt, og
med passende retsgarantier, har givet de pågældende
administrative myndigheder en sådan beføjelse.
Korte tidsfrister for behandling af anmeldelser
Det absolut mest problematiske aspekt ved lovforslaget er
de meget korte tidsfrister for den private tjenesteudbyders
forpligtelse til at træffe en afgørelse om at fjerne, blokere
eller fastholde det anmeldte indhold på baggrund af en
vurdering af, om indholdet er ulovligt.
I praksis pålægges private tjenesteudbydere at udføre
opgaver, der egentlig hører under domstolene, og i
modsætning til domstolenes neutralitet over for sagens
parter kommer denne opgave med en indbygget
skævvridning i retning af at fjerne indholdet, fordi
tjenesteudbyderen risikerer store bøder, hvis ulovligt
indhold ikke fjernes inden for de korte tidsfrister.
Efter lovforslaget skal tjenesteudbyderen træffe en
9
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
afgørelse inden for 24 timer, hvis det ”uden nærmere
undersøgelse” er muligt at vurdere, om indholdet er
ulovligt. Hvis det kræver nærmere undersøgelser at
vurdere, om indholdet er ulovligt, har tjenesteudbyderen 7
dage til afgørelsen. Det er stadig en meget kort tidsfrist
sammenlignet med den tid, der går fra eksempelvis en
anmeldelse om overtrædelse af straffelovens § 266 b til
anklagemyndigheden har afgjort, om sagen skal
retsforfølges ved domstolene, og domstolene derefter
tager stilling til om ytringen var ulovlig.
Det anføres i lovforslagets bemærkninger, at hvis
indholdet tidligere har været vurderet af
tjenesteudbyderen, vil det umiddelbart ikke kræve en
nærmere undersøgelse for tjenesteudbyderen at træffe en
afgørelse om det samme indhold igen. Den bemærkning
overser imidlertid fuldstændigt, at spørgsmålet om
lovligheden af indhold meget vel kan afhænge af den
kontekst som det indgår i. Et billede af en bombesprængt
bygning fra et terrorangreb kan både bruges til ulovlig
billigelse af terrorisme og til at kritisere terrorismens
rædsler. Humor og ironi kan desuden have stor betydning
for spørgsmålet om, hvorvidt indhold er ulovligt.
De meget korte tidsfrister for at træffe en afgørelse giver
under alle omstændigheder tjenesteudbyderen et kraftigt
incitament til at fjerne eller blokere indholdet, hvis der er
bare det mindst tvivl om lovligheden. På den måde undgår
tjenesteudbyderen med sikkerhed de store bøder, som
tjenesteudbyderen kan risikere at blive pålagt, hvis ulovligt
indhold ikke fjernes.
Det fremgår eksplicit af de specielle bemærkninger til § 11,
stk. 5, at Konkurrence- og Forbrugerstyrelsen (KFST) i sin
tilsynsvirksomhed vil holde øje med tjenesteudbydere,
som har en lav andel af anmeldelser, der fører til at det
anmeldte indhold fjernes. En sådan tilsynspraksis kan kun
forstærke tjenesteudbydernes incitamenter til fjerne
indhold, som der modtagelse en anmeldelse om.
Selv om lovforslagets § 5, stk. 3 formelt giver
tjenesteudbyderen 7 dage til at træffe en afgørelse, hvis
indholdet kræver en nærmere undersøgelse, har
tjenesteudbyderen også i disse tilfælde et incitament til at
træffe en hurtigere afgørelse. Det skyldes, at hvis
tjenesteudbyderen vil bruge mere end 24 timer på
10
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
afgørelsen, skal tjenesteudbyderen over for anmelderen
redegøre for, hvilke forhold ved indholdets karakter som
bevirker, at vurdering af indholdet kræver en særlig
juridisk undersøgelse.
På den måde kommer kravet om en afgørelse inden for 24
timer reelt til at fremstå som hovedreglen, uanset at
virkeligheden meget vel kan være en anden, hvis de fleste
anmeldelser drejer sig om indhold, der ikke kan vurderes
uden en nærmere undersøgelse. Det vil bidrage yderligere
til at presse tjenesteudbyderne til forhastede afgørelser
med et indbygget incitament til at fjerne det anmeldte
indhold.
Tidsfristerne i det danske lovforslag er reelt mere
restriktive og problematiske i forhold til ytringsfriheden
end i den tyske NetzDG lov, som har fået betydelig
international kritik.
Incitament til at anvende tjenesteudbydernes egne
retningslinjer når indhold fjernes
Hvis tjenesteudbyderen vurderer at indholdet er ulovligt,
eller bare at det ikke kan udelukkes at det er ulovligt (og
kan indebære risiko for bøder hvis det ikke fjernes), vil
tjenesteudbyderen have et kraftigt incitament til at fjerne
indholdet med henvisning til sine egne retningslinjer i
stedet for at træffe en afgørelse efter § 5, stk. 1. På den
måde undgår tjenesteudbyderen nemlig de udgifter, som
vil være forbundet med en efterprøvelse af afgørelsen om
at fjerne indholdet, hvis brugeren, der har delt indholdet,
efterfølgende anmoder om dette.
I Tyskland har NetzDG efter ikrafttræden i januar 2018 ført
til en kraftig stigning i mængden af indhold på sociale
medier som fjernes, men det sker primært med henvisning
til overtrædelser af tjenesteudbydernes egne
retningslinjer, i stedet for begrundelser om at det
anmeldte indhold overtræder af tysk lov. Det var næppe
hensigten med NetzDG, men resultatet er en logisk
konsekvens af de incitamenter, som NetzDG giver
tjenesteudbyderne.
Hvis tjenesteudbyderen fastholder indholdet, fordi det ikke
vurderes til at være ulovligt, kan anmelderen forlange en
11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
efterprøvelse af afgørelsen, jf. lovforslagets § 7, som skal
ske inden for 7 dage. For tjenesteudbyderen vil det derfor
altid være forbundet med større udgifter at fastholde
indhold som anmeldes. Der er både risikoen for store
bøder og udgifterne til eventuel efterprøvelse af
afgørelsen, som tjenesteudbyderen kun kan undgå med
sikkerhed ved at fjerne indholdet og henvise til sine egne
retningslinjer, jf. § 5, stk. 6.
Det fremgår af de almindelige bemærkninger pkt. 2.2.1.2,
at proceduren med efterprøvelse i § 7 efter
Erhvervsministeriets vurdering vil kunne bidrage til, at
tjenesteudbyderen afholder sig fra at fjerne eller blokere
lovligt indhold. Hertil skal IT-Politisk Forening bemærke, at
den retsgaranti i praksis ikke vil have den ønskede effekt,
når tjenesteudbyderen blot kan fjerne indholdet med
henvisning til sine egne retningslinjer og dermed helt
undgå forpligtelsen til efterprøvelse.
IT-Politisk Forening vil anbefale at § 5, stk. 6 ændres, så
tjenesteudbyderen altid er forpligtet til at træffe en
afgørelse efter § 5, stk. 1 med mulighed for efterprøvelse,
medmindre brugeren selv vælger at fjerne indholdet. Når
anmeldelsen går på, at indholdet er ulovligt, bør
tjenesteudbyderen kun vurdere indholdet i forhold til dansk
lov og ikke i forhold til sine egne retningslinjer. Det vil
mindske lidt af den nuværende skævhed, hvor anmeldt
indhold kun kan fastholdes, hvis tjenesteudbyderen
vurderer, at det er i overensstemmelse med dansk lov,
mens brugerens indhold kan fjernes både med
begrundelse om at det er ulovligt og at det strider mod
tjenesteudbyderens egne retningslinjer.
Selv med denne ændring af § 5, stk. 6 vil lovforslaget have
en betydelig skævvridning i retning af at indhold fjernes
efter en anmeldelse om ulovligt indhold. Det skyldes at
tjenesteudbyderne kan få store bøder for at undlade at
fjerne ulovligt indhold, mens der ikke er tilsvarende
sanktioner hvis lovligt indhold fjernes. De korte tidsfrister
giver desuden et incitament til at vælge den nemmeste
løsning, som altid vil være at fjerne indholdet efter en
anmeldelse.
12
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Efterprøvelse af tjenesteudbyderens afgørelser
Det er positivt, at brugeren, som får sit indhold fjernet, har
ret til en efterprøvelse af tjenesteudbyderens afgørelse.
Som lovforslaget er skruet sammen, er denne mulighed
dog mere formel end reel for brugeren, som får sit indhold
fjernet.
Som anført ovenfor er der ingen adgang til efterprøvelse,
hvis indholdet fjernes med henvisning til overtrædelse af
tjenesteudbyderens egne retningslinjer i stedet for en
afgørelse efter § 5, stk. 1 om, at indholdet fjernes fordi det
vurderes til at være ulovligt. Selv hvis tjenesteudbyderen i
første omgang har fjernet indholdet efter § 5, stk. 1, kan
tjenesteudbyderen i princippet undlade at gennemføre
efterprøvelsen inden for fristen på 7 dage, samt undlade at
genoprette indhold som ved en fejl er vurderet til at være
ulovligt i første omgang, hvis begrundelsen for at fjerne
indholdet i stedet ændres til overtrædelse af
tjenesteudbyderens egne retningslinjer.
I praksis må det derfor forventes, at adgangen til
efterprøvelse i § 7 kun er til rådighed for anmelderen. Hvis
anmelderen efter en fastholdelse af indholdet anmoder om
efterprøvelse, vil udgifterne til denne proces kunne
undgås, hvis indholdet fjernes med henvisning til
tjenesteudbyderens egne retningslinjer, jf. lovforslagets
§ 7, stk. 9. Igen er incitamenterne til at fjerne indholdet
dominerende, til skade for ytringsfriheden.
Kommissionens DSA-forslag har en langt bedre balance i
forhold til beskyttelse af ytringsfriheden, fordi brugeren har
adgang til efterprøvelse hos tjenesteudbyderen (artikel 17)
og en uafhængig udenretslig tvistbilæggelse (artikel 18)
uanset om indholdet fjernes med begrundelse om at det er
ulovligt, eller med begrundelse om at det strider mod
tjenesteudbyderens egne retningslinjer.
Opbevaring af brugeroplysninger for fjernet indhold
Lovforslagets § 5, stk. 7 pålægger tjenesteudbyderen at
opbevare indhold, der fjernes eller blokeres, samt dertil
hørende kontooplysninger (om brugeren) i 90 dage,
således at oplysningerne eventuelt senere kan udleveres
til politiet. Det er uklart om denne forpligtelse også
gælder, hvis brugeren selv sletter indholdet efter en
13
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
anmeldelse, eller hvis indholdet slettes med henvisning til
tjenesteudbyderens egne retningslinjer i stedet for en
afgørelse efter § 5, stk. 1 om at indholdet er ulovligt.
Kravet om opbevaring af brugerens oplysninger udgør et
indgreb i retten til privatliv, databeskyttelse og
ytringsfrihed. Det kan have en ”chilling effect” på
villigheden til at ytre sig på sociale medier.
Efter IT-Politisk Foreningens vurdering er dette indgreb i
grundlæggende rettigheder næppe proportionalt i forhold
til EU-retten (Charter om Grundlægende Rettigheder
artikel 52, stk. 1), når det omfatter alt indhold, som af en
privat tjenesteudbyder efter en anmeldelse vurderes til at
overtræde en bestemmelse i gældende ret, uden nogen
differentiering med hensyn til alvoren af den påståede
eller formodede lovovertrædelse.
Forordning (EU) 2021/784 om forebyggelse af udbredelsen
af terrorrelateret indhold har i artikel 6 en forpligtelse for
tjenesteudbyderen til at opbevare indhold og dertil
knyttede data efter et påbud om fjernelse fra en
myndighed. Denne forordning omfatter imidlertid alene
terrorrelateret indhold, som generelt vil udgøre en alvorlig
lovovertrædelse. I Kommissionens DSA-forslag med et
bredere anvendelsesområde ses der ikke at være et
lignende krav om opbevaring af indhold og tilhørende
brugeroplysninger (uanset om brugeren selv sletter sin
profil på platformen), hvis indholdet fjernes af
tjenesteudbyderen efter vurdering af en anmeldelse om
ulovligt indhold.
Lovforslagets § 5, stk. 7 giver endvidere politiet mulighed
for at pålægge tjenesteudbyderen at opbevare indholdet
og tilhørende kontooplysninger i et længere tidsrum end
90 dage. Det er uklart hvordan politiet skal kunne
håndhæve dette over for udenlandske tjenesteudbydere,
da de ikke er forpligtet til at hastesikre oplysninger efter
påbud fra dansk politi, jf. Justitsministeren besvarelse af
spørgsmål nr. 1491 (Alm. del) i Retsudvalget 2019-20.
På grund af retsforholdet deltager Danmark ikke i den
(måske) kommende forordning om europæiske editions- og
sikringskendelser om elektronisk bevismateriale i
straffesager [COM(2018) 225 final], hvor der kan gives
bindende påbud om sikring af bevismateriale direkte til
14
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
tjenesteudbydere i andre medlemsstater. Det bør
udelukke, at der i dansk lov kan indføres tilsvarende krav
om sikring af bevismateriale med territorial virkning
direkte over for tjenesteudbydere i andre EU-
medlemsstater.
Myndigheders adgang til oplysninger om
platformenes brugere
Lovforslaget giver KFST en meget vidtgående adgang til at
forlange oplysninger udleveret fra tjenesteudbydere med
henblik på at udarbejde analyser om ulovligt indhold og
indholdsmoderation (§ 10, stk. 2) eller udføre opgaver, som
KFST er tillagt efter denne lov (§ 12, stk. 1).
Der er ikke nogen reel afgrænsning af hvilke oplysninger,
som KFST kan kræve udleveret, udover at KFST skal
vurdere at de er nødvendige for opgaven. Det fremgår dog
af de specielle bemærkninger til § 12, stk. 1, at denne
bestemmelse ikke kan omfatte personoplysninger.
Der er imidlertid ikke en tilsvarende begrænsning i
bemærkningerne til § 10, stk. 2, hvor det i stedet fremgår,
at bestemmelsen omfatter alle nødvendige oplysninger,
som en tjenesteudbyder har adgang til. Oplysningerne kan
sågar forlanges udleveret til politisk motiverede formål,
hvis analysen om ulovligt indhold og indholdsmoderation
udarbejdes efter anmodning fra Erhvervsministeren, som
§ 10, stk. 1 giver mulighed for.
Det vil være meget problematisk, hvis KFST med
henvisning til § 10, stk. 2 kan forlange, at
tjenesteudbyderen udleverer oplysninger om deres
brugere til danske myndigheder. Det vil være et
vidtgående indgreb i retten til privatliv og databeskyttelse,
som næppe er foreneligt med Charter om Grundlæggende
Rettigheder (eller databeskyttelsesreglerne i GDPR).
Efter lovforslaget gælder § 10, stk. 2 også for
tjenesteudbydere etableret uden for Danmark, som har
under 100.000 danske brugere, og dermed måske kun en
perifer tilknytning til Danmark. Det er dog generelt uklart
hvordan KFST i praksis skal kunne håndhæve kravet om at
udlevere personoplysninger om platformens brugere over
for udenlandske tjenesteudbydere.
15
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
IT-Politisk Forening vil under alle omstændigheder
anbefale, at det i bemærkningerne til § 10, stk. 2
præciseres, at KFST ikke kan forlange personoplysninger
om brugerne på platformen udleveret til brug for analyser.
16
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Justitias høringssvar til forslag til Lov om regulering af sociale medier
Justitia
København
21. januar 2022
Høringssvaret er udarbejdet af direktør Jacob Mchangama
og stud.jur. Caroline Norre Rasmussen
Indhold
1.
2.
3.
4.
5.
6.
7.
8.
Executive summary
Indledning
Ytringsfriheden
Grundloven § 77
Internationale menneskerettighedskonventioner
Gennemsigtighed og efterprøvelse
Magtforholdet mellem stat og tjenesteudbydere
Eksempler på scenarier med problematikker knyttet til Lovforslaget
8.1.
8.2.
8.3.
9.
Injurielovgivning
Virksomheder (markedsføringsregler)
Racismeparagraffen
2
3
4
5
6
12
13
14
14
15
15
15
16
Forholdet til EU og DSA
10. Konklusion/ anbefaling
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0107.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
1. Executive summary
I følgende høringssvar vil Justitia kommentere udvalgte dele af Konkurrence- og Forbrugerstyrelsens
lovforslag om regulering af sociale medier (Lovforslaget). Konkret finder Justitia, at lovforslaget giver
anledning til en række bekymringer i forhold til dets konsekvenser for ytringsfriheden, som
Lovforslaget dog ikke adresserer.
Lovforslaget pålægger tjenesteudbyderne forskellige processuelle forpligtelser bl.a. ved krav om
etablering af anmeldelsesprocedurer, krav om begrundede afgørelser ved fjernelse eller blokering af
indhold samt tidsfrister for nedtagning af ulovligt indhold på platformene.
Justitia finder det særligt problematisk, at Lovforslaget pålægger private aktører en forpligtelse til at
fjerne alt ulovligt indhold i henhold til en særdeles urealistisk tidsfrist. Det skaber et incitament til at
”overregulere” og fjerne lovligt indhold i henhold til tjenesteudbydernes egne retningslinjer,
der
ifølge Lovforslaget er undtaget fra kravene om gennemsigtighed og klageadgang.
Justitia påpeger også, at Lovforslaget ikke dokumenterer eller sandsynliggør, at ulovligt indhold
udgør et alvorligt problem på sociale medier. Tværtimod tyder den tilgængelige data på, at omfanget
af ulovligt indhold er stærkt begrænset, og at det indhold som mange brugere finder krænkende, er
lovligt. På den baggrund finder Justitia det tvivlsomt, om Lovforslaget lever op til kravene om
forudsigelighed og proportionalitet, som følger af ytringsfriheden som sikret i internationale
menneskerettighedskonventioner fra FN og Europarådet.
Justitia anbefaler konkret, at lovgiver følger Ytringsfrihedskommissionens anbefalinger og afholder
sig fra at indføre national regulering af indholdet på sociale medier. I stedet bør Folketinget
opprioritere politi- og anklagemyndighedens ressourcer i forhold til at efterforske og retsforfølge de
groveste overtrædelser af straffeloven på sociale medier med fokus på at straffe de personer, der
rent faktisk deler sådant ulovligt indhold. I tillæg hertil kan regeringen overveje initiativer, der
forpligter eller giver tjenesteudbydere et incitament til at tilbyde brugerne tilgængelige og
anvendelige teknologiske løsninger, som giver den enkelte bruger større adgang til selv at filtrere
det indhold, de bliver mødt med på sociale medier.
Såfremt lovgiver fastholder behovet for regulering af sociale medier, bør loven begrænses til at have
fokus på transparens og gennemsigtighed. Det vil give både brugerne, myndigheder og lovgiver
større viden om indhold og moderering heraf på sociale medier, og dermed et stærkere grundlag
for at tage stilling til behovet for evt. fremtidig lovgivning om indholdsmoderering. Såfremt lovgiver
fastholder, at det er nødvendigt også at lovgive om indholdsmoderering, anbefaler Justitia, at
omfanget begrænses til særligt alvorlige forbrydelser i straffeloven såsom reelle trusler, tilskyndelse
til terror, hævn- og børneporno samt alvorlig kriminalitet, og desuden at tidsfristen gøres mere
fleksibel end absolutte frister på eks. 24 timer eller 7 dage.
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0108.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
2. Indledning
Konkurrence- og Forbrugerstyrelsen har ved brev af 20. december 2021 anmodet Justitia om
bemærkninger til Lovforslaget.
Selve Lovforslaget har til formål at indføre en national lov, der regulerer sociale medier og som
etablerer klarere krav i forhold til tjenesteudbydernes ansvar for ulovligt indhold på deres platforme,
herunder ved at pålægge processuelle forpligtelser. Lovforslaget indebærer bl.a. krav om etablering
af anmeldelsesprocedurer, krav om begrundede afgørelser om fjernelse eller blokering af indhold
samt tidsfrister for nedtagning af ulovligt indhold på platformene. Lovforslaget giver anledning til en
lang række principielle overvejelser, men i det følgende vil Justitia alene fokusere på dele af
Lovforslaget, der er særligt relevante for ytringsfriheden.
I Lovforslagets §§ 4
7 forslås en række forpligtelser for tjenesteudbyderne.
Lovforslagets § 4, forpligter tjenesteudbyderne til at oprette lettilgængelige og brugervenlige
anmeldelsesprocedurer for ulovligt indhold på deres platforme.
Efter modtaget anmeldelse forpligtes tjenesteudbyderen efter Lovforslagets § 5, til at træffe afgørelse
om fastholdelse, fjernelse eller blokering af indhold. I den forbindelse bør særligt Lovforslagets § 5,
stk. 2, fremhæves, idet denne forpligter tjenesteudbyderne til som udgangspunkt at træffe afgørelse
inden 24 timer. Fristen kan, hvis nødvendigt, forlænges til 7 dage og i undtagelsestilfælde 14 dage,
jf. § 5, stk. 3 og 4. Såfremt fristerne ikke overholdes, kan tjenesteudbyderne blive mødt med
sanktioner i form af en større bødestraf, jf. § 16, stk. 1, nr. 5 og 7.
Det bør dog fremhæves, at Lovforslagets § 5, stk. 6, indeholder en undtagelse til forpligtelsen om at
træffe afgørelser efter stk. 1. Af bestemmelsen fremgår det, at tjenesteudbyderne ikke forpligtes til
at træffe afgørelse, såfremt det konkrete indhold bliver fjernet eller blokeret på baggrund af andre
foranstaltninger, inden afgørelsen efter stk. 1 træffes. Det fremgår af bemærkningerne til
bestemmelsen, at disse foranstaltninger bl.a. kan være tjenesteudbyderens afgørelse om fjernelse
eller blokering af indhold i henhold til tjenesteudbyderens egne retningslinjer.
1
Såfremt
tjenesteudbyderen træffer sådanne foranstaltninger, bortfalder endvidere oplysningspligten og
muligheden for efterprøvelse i Lovforslagets §§ 6
7.
Lovforslagets § 6, opstiller oplysningspligt for tjenesteudbyderen for afgørelser truffet efter
Lovforslagets § 5, stk. 1, herunder ved begrundelse for fjernelse eller blokeringen samt det territoriale
anvendelsesområde herfor.
Lovforslagets § 7, opstiller forpligtelser for tjenesteudbyderen til at opstille efterprøvelsesprocedure.
Brugeren eller anmelderens mulighed for efterprøvelse begrænses til tjenesteudbyderens afgørelse
efter § 5, stk. 1. Det fremgår således af § 7, stk. 9, at tjenesteudbyderen ikke forpligtes til at træffe
afgørelse inden for 7 dage, såfremt det konkrete indhold fjernes eller blokeres på baggrund af andre
1
Lovforslagets s. 77
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0109.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
foranstaltninger. I bemærkningerne til bestemmelsen fremhæves det igen som eksempel, at dette
kan være på baggrund af tjenesteudbyderens afgørelse i henhold til egne retningslinjer. I dette
tilfælde vil tjenesteudbyderen ej heller være forpligtet til at opfylde oplysningspligten i § 6
2
.
I Lovforslagets § 13, fremgår det, at Erhvervsministeren fastsætter regler om adgangen til at klage
over tjenesteudbyders manglende efterlevelse af Lovforslagets §§ 4-7. Det bør dog særligt
fremhæves, at bemærkningerne til bestemmelsen fremfører, at det alene vil være muligt at klage
over processuelle forpligtelser. Konkurrence- og Forbrugerstyrelsen har dermed ikke kompetence til
materielt at efterprøve tjenesteudbyderens afgørelse efter § 5, stk. 1
3
.
Med Lovforslaget stilles ligeledes krav om afrapportering, ligesom brugerne får adgang til at få
efterprøvet tjenesteudbydernes afgørelse om at beholde, blokere eller fjerne anmeldt indhold.
Justitia vil i sit høringssvar særligt koncentrere sig om Lovforslagets forhold til og konsekvenser for
brugernes ytringsfrihed, herunder særligt de foreslåede tidsfrister, gennemsigtighed samt forholdet
til EU's forordning om digitale tjenester, kendt som Digital Services Act (DSA).
3. Ytringsfriheden
Spørgsmålet om Lovforslagets konsekvenser for ytringsfriheden er særdeles relevant, da den
teknologiske udvikling har medført, at den danske befolkning i høj grad anvender forskellige
tjenesteudbyderes platforme til at dele og modtage information, herunder nyhedshistorier og
opinionsstof fra traditionelle medier. 90 % af danskerne over 12 år er brugere af et eller flere sociale
medier, hvoraf 88% har en Facebookprofil.
4
De mest hyppige årsager til at bruge sociale medier er ’Til at kommunikere med venner/familie’ (70,4
%), ’til at holde mig opdateret om venner/familie’ (68,8 %) og ’Holde mig opdateret om
nyheder
generelt’ (45,6 %).
81 % af brugerne anvender
sociale medier ’Flere gange dagligt’ eller 'Dagligt’.
Platformene har således fået en central rolle i den offentlige debat, hvorfor regulering af indholdet
på disse i praksis risikerer at få væsentlig betydning for udfoldelsen af brugernes ytringsfrihed.
Lovforslaget beskæftiger sig dog stort set ikke med spørgsmålet om de mulige konsekvenser for
brugernes ytringsfrihed. Rent faktisk nævnes ytringsfriheden alene én gang, som en
sidebemærkning, på Lovforslagets samlede 112 sider. Dette synes særligt påfaldende, når bl.a.
Ytringsfrihedskommissionen tidligere har anført, at der med hensyn til ytringsfriheden bør udvises
tilbageholdenhed med at lovgive, og at Danmark internationalt er forpligtet til positivt at beskytte
menneskerettighederne, herunder ytringsfriheden. I Ytringsfrihedskommissionens betænkning
fremgår det således:
Lovforslagets s. 85
Lovforslaget s. 99
4
Kulturministeriet, Ny rapport viser stigende digitalt medieforbrug i Danmark, tilgået 4. januar 2022:
https://kum.dk/aktuelt/nyheder/ny-rapport-viser-stigende-digitalt-medieforbrug-i-danmark og Kantar Gallup/Social
Media Life 2020
2
3
4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0110.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
Kommissionen finder ikke, at der
ligesom det har været tilfældet i f.eks. Tyskland
bør gennemføres lovgivning, der med trussel om høje bødestraffe pålægger de
(største) sociale medier en pligt til hurtigt
og inden for faste tidsfrister
at fjerne
eller blokere ulovligt indhold, efter at have modtaget en anmeldelse herom.”
Ytringsfrihedskommissionens lagde således til grund, at:
”Denne tilgang, hvor der –
bl.a. af hensyn til ytringsfriheden
udvises
tilbageholdenhed med at lovgive, bør efter kommissionens opfattelse være den
danske, og den kunne som nævnt kombineres med andre tiltag, herunder øget
opmærksomhed om de eksisterende reglers anvendelighed på aktiviteter, der
finder sted på de sociale medier.”
5
Justitia finder det kritisabelt, at Lovforslaget end ikke forholder sig til disse argumenter eller
anbefalinger. Mere grundlæggende savner Justitia, at Lovforslaget forholder sig til de grund- og
menneskeretlige rammer for ytringsfriheden og Lovforslagets overensstemmelse hermed.
4. Grundloven § 77
Ytringsfriheden er beskyttet mod forudgående indgreb af Grundlovens § 77. Bestemmelsen sikrer
friheden til at offentliggøre ytringer og forbyder dermed statens censur eller andre forebyggende
forholdsregler mod ytringer. Det er desuden generelt antaget i statsretlig teori, at domstolene er
enekompetente til at sanktionere overtrædelser af den materielle ytringsfrihed. Omvendt bemærkes,
at grundlovens § 77, ikke finder anvendelse på indgreb fra private aktører, hverken direkte eller
indirekte ved en positiv forpligtelse.
6
Grænsefladen mellem forudgående censur
og ”andre forebyggende forholdsregler” er så vidt ses
ikke afklaret.
7
Det synes dog klart at Lovforslaget medfører en væsentlig risiko for, at den
underlæggende beskyttelsesinteresse, som Grundlovens § 77 varetager, bliver udhulet.
Ved at pålægge tjenesteudbydere det retlige ansvar for reguleringen af millioner af brugeres
materielle ytringsfrihed under iagttagelse af korte tidsfrister, risikerer Lovforslaget således at
medføre, at tjenesteudbyderne vil skulle anvende automatiseret indholdsmoderering, der proaktivt
identificerer og fjerner indhold, som en algoritme vurderer som værende ulovlig. Siden
ikrafttrædelsen af den tyske NetzDG lov er der eksempelvis i perioden fra første kvartal i 2018 til
andet kvartal i 2020 sket en stigning
i omfanget af ”hadske” kommentarer
identificeret af AI fra 38%
til 94,5%, hvilket vil sige, at hvor algoritmen i 2018
identificerede under halvdelen af de ”hadske”
kommentarer, før de blev offentliggjort, fik den kunstige intelligens i 2020 ram på 19 ud af 20
angiveligt ”hadske”
kommentarer, før de blev publiceret. En sådan ordning vil risikere at komme til
5
https://www.justitsministeriet.dk/sites/default/files/media/Pressemeddelelser/pdf/2020/betaenkning_nr._1573_2020_del_
2.pdf
6
Jens Elo Rytter
Individets grundlæggende rettigheder,
3. udgave/ 1. oplag (2019) s. 287ff
7
Jens Peter Christensen m.fl.
Grundloven med kommentarer,
1. udgave 1. oplag (2015), p. 501
5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0111.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
at fungere som systematisk forudgående censur eller
”forebyggende forholdsregler”,
der i praksis
udhuler beskyttelsen af grundlovens § 77.
På den baggrund savner Justitia, at Lovforslaget foretager en vurdering af rækkevidden af
Grundlovens § 77 overfor den nye virkelighed med private platforme, der af staten underlægges et
retligt ansvar for at moderere ytringer. Uanset hvorvidt ordningen strengt juridisk måtte være i
overensstemmelse med Grundlovens § 77, bør Lovforslaget endvidere forholde sig til i hvilket
omfang, det vil medføre negative konsekvenser for den praktiske og effektive beskyttelse af og
formålet med grundlovens § 77.
5. Internationale menneskerettighedskonventioner
I modsætning til grundlovens § 77 beskytter internationale menneskerettighedskonventioner den
materielle ytringsfrihed. Det gælder eksempelvis Artikel 19 i FNs Konvention om Borgerlige og
Politiske Rettigheder (ICCPR) og Artikel 10 i den Europæiske Menneskerettighedskonvention (EMRK).
Sidstnævnte konvention har siden inkorporeringsloven af 1992 udgjort en del af dansk ret.
Både regionale og internationale menneskerettigheder binder alene de stater, der har underskrevet
de pågældende konventioner, mens private aktører, herunder tjenesteudbyderne, ikke er direkte
bundet af menneskeretten.
Private aktører vil dog kunne forpligtes indirekte til menneskeretten i kraft af nationale lovregler, som
indføres på baggrund af staternes positive forpligtelse til at beskytte menneskerettighederne. Et
eksempel er Den Europæiske Menneskerettighedsdomstols (EMD) afgørelse i MTE-sagen. Sagen
omhandlede en nyhedsportal, der respekterede anmeldelser om fjernelse af indhold, men omvendt
ikke aktivt overvågede alle brugernes kommentarer. Den ungarske domstol holdt portalen ansvarlig
for indhold delt af brugerne. EMD fremførte, at en sådan generel forpligtelse til at overvåge og fjerne
alle ulovlige brugerkommentarer var i strid med EMRK art. 10.
EMD fremhævede eksempelvis, at
Such liability may have foreseeable negative consequences on the comment
environment of an Internet portal, for example by impelling it to close the
commenting space altogether. For the Court, these consequences may have,
directly or indirectly, a chilling effect on the freedom of expression on the
Internet".
8
Den positive forpligtelse medfører således, at der i Lovforslaget skal tages højde for beskyttelsen af
ytringsfriheden.
8
EMDs afgørelse: Magyar Tartalomszolgáltatók Egyesülete (MTE) and Index.hu Zrt v. Hungary, para 86.
6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0112.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
Regulering af tjenesteudbyderne kan altså både direkte og indirekte påvirke borgernes ytrings- og
informationsfrihed i henhold til EMRK artikel 10, hvilket lovgiver skal tage højde for i sine overvejelser
ved udfærdigelsen af de konkrete lovregler.
Beskyttelsen af ytrings- og informationsfriheden i ICCPR art. 19 og EMRK-artikel 10 er ikke absolut.
Staten kan foretage indgreb i ICCPR Artikel 19, hvis betingelserne i ICCPR art. 19 (3) om beskyttelsen
af andres rettigheder/omdømme eller statens sikkerhed og den offentlige orden er opfyldt. Hertil
kræves, at indgrebet har hjemmel i lov, forfølger et legitimt formål, ligesom indgrebet skal være
nødvendigt og proportionalt. Lignende betingelser gør sig gældende for EMRK artikel 10, der dog i
modsætning til under ICCPR tillader staterne en vis national skønsmargin, og i højere grad end under
ICCPR tillader indgreb med henblik på at begrænse hadefulde og krænkende ytringer.
Ved Lovforslaget opstilles regler for fjernelse og blokering af indhold, hvilket medfører en
begrænsning af brugernes mulighed for at ytre sig på diverse platforme. Det kan derfor diskuteres,
hvorvidt Lovforslagets krav om fjernelse og blokering af indhold er forenelige med betingelserne i
ICCPR art. 19 (3) og EMRK artikel 10.
For så vidt angår kravet om lovhjemmel, er det en betingelse, at loven udformes klart og præcist,
således at der skabes forudsigelighed om indgrebet. FNs Special Rapporteur har tidligere fremført
kritik mod den lignede lovmodel i Tyskland:
The German Network Enforcement Act (NetzDG)”
, idet
reglerne om hvilket indhold, der skal fjernes eller blokeres, er vagt formuleret.
9
Også FNs Menneskerettighedskomité har i den seneste statusrapport vedrørende Tyskland fra
november 2021 udtryk bekymringer over NetzDGs forenelighed med ICCPR Artikel 19. I rapporten
hedder det således:
[T]he
Committee is concerned by the broad powers introduced by the Network
Enforcement Act in 2017 to remove content deemed illegal or abusive. It also notes
with concern that responsibility for the removal of such content is assigned to
social media companies and not subject to judicial oversight, thereby limiting
access to redress in cases where the nature of content is disputed. The Committee
is concerned that these provisions and their application could have a chilling effect
on online expression
”.
10
Menneskerettighedskomiteen anbefaler således Tyskland at ændre NetzDG således, at loven er i
overensstemmelse med de strenge krav til indgreb i ytringsfriheden som følger af ICCPR Artikel 19(3).
Lignende skepsis kan fremføres ift. Lovforslagets § 3, nr. 1, hvorefter ulovligt indhold defineres som
alt indhold i strid med gældende ret. Det ulovlige indhold er dermed både ytringer, som er strafbare
efter straffeloven, men også andet indhold i strid med f.eks. markedsførings- eller ophavsretlige
regler. Dermed går Lovforslaget væsentligt længere, end hvad der følger af lignende love såsom den
9
10
https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf
https://tbinternet.ohchr.org/Treaties/CCPR/Shared%20Documents/DEU/CCPR_C_DEU_CO_7_47161_E.pdf
7
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0113.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
tyske NetzDG, der alene forpligter tjenesteudbydere til at fjerne særligt alvorlige former for ulovligt
indhold, der strider mod udvalgte bestemmelser i straffeloven. Lovforslaget formår således ikke at
opstille klarhed om, hvilket indhold der reelt skal fjernes eller blokeres, hvorfor der foreligger en reel
risiko for, at tjenesteudbyderne vil være tilbøjelig til også at fjerne lovligt indhold, eller ulovligt
indhold, der dog ikke kan retfærdiggøre indgreb i ytringsfriheden, fordi den relevante
beskyttelsesinteresse ikke udgør et anerkendt formål under ICCPR Artikel 19(3) eller EMRK Artikel 10
(2).
Der kan ligeledes stilles spørgsmålstegn ved, hvorvidt Lovforslaget opfylder betingelsen om
proportionalitet. I forhold til tjenesteudbydernes nuværende indsats imod ulovligt indhold fremgår
det af Lovforslagets almindelige bemærkninger angående Erhvervsministeriets overvejelser omkring
den foreslåede ordning:
”Særligt tjenesteudbydernes frivillige implementering af tiltag for at modvirke bl.a.
ulovligt indhold på deres platforme og tjenester har haft en positiv effekt, og har
mindsket
mængden af
ulovligt
indhold,
der
florerer frit
kommunikationsplatforme,
gruppebeskedstjenester,
datingtjenester
og
gamingtjenester. Det står imidlertid klart, at der er for mange tilfælde, hvor ulovligt
indhold enten kun delvist bliver fjernet eller blokeret, og at dette ikke sker hurtigt
nok”.
Justitia bemærker imidlertid, at Lovforslaget ikke indeholder nogen form for data eller anden
dokumentation for omfanget af ulovligt indhold på sociale medier, og så vidt ses foreligger der ikke
sådanne danske data eller undersøgelser. Det nærmeste er en analyse af indholdet af slettede
kommentarer på fem danske mediers Facebooksider foretaget af Justitia, Analyse & Tal og Common
Consultancy i 2020.
11
Analysen viste bl.a., at der blev fjernet 6,2% af alle kommentarer på de danske nyhedsmediers
Facebook-sider. Derudover viste analysen, at det alene var 1,1% af de slettede kommentarer, der blev
vurderet til at være egentlige strafbare efter straffeloven. Analysen fremviste således, at der for hver
fjernet strafbar kommentar fjernes 36 almindelige holdningsytringer. Analysen viste imidlertid også,
at der på trods af sletningen af kommentarer, fortsat står et stort antal strafbare ytringer tilbage. Det
anslås, at der for hver strafbar kommentar, der slettes, står 3-4 ulovlige kommentarer tilbage.
Derudover har Justitia i januar 2022 offentliggjort den hidtil mest omfattende analyse af ulovligt
indhold på Facebook. Konkret baserer undersøgelsen sig på en retlig analyse af to datasæt hvert
indeholdende 1.200 kommentarer fra henholdsvis mediers og politikeres facebooksider. Analysen er
foretaget på baggrund af Analyse & Tals rapport:
Angreb i den offentlige debat på Facebook,
der på
baggrund af Analyse & Tals algoritme har undersøgt i alt 63 mio. kommentarer fra 199 politikeres
og 477 mediers facebooksider
.
Ud af disse 63 mio. kommentarer klassificerede algoritmen 5,2 % som
11
http://justitia-int.org/digital-ytringsfrihed-og-sociale-medier/
8
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0114.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
værende sproglige angreb, herunder anstødelige og hadefulde kommentarer. De 2.400
kommentarer Justitia undersøgte, var alle klassificeret som hadefulde kommentarer.
Samlet set er det i analysen konstateret, at 11 ud af 2.400 kommentarer kan betragtes som strafbare
efter straffeloven. Dette svarer til, at 0,46% af kommentarerne i datasættende udgjorde en
overtrædelse af straffeloven. Et groft estimat fører således til, at 0,0066 % af de samlede 63 mio.
kommentarer kan karakteriseres som strafbare efter de relevante bestemmelser i straffeloven. Det
stemmer også overens med internationale undersøgelser, som generelt konkluderer, at andelen af
”hadefuld tale” (og disinformation) på sociale medier er langt
lavere end den massive fokus på disse
kategorier umiddelbart skulle give anledning til at tro.
12
På baggrund af ovenstående analyser kan Justitia ikke genkende det billede af omfanget af ulovlige
ytringer, som der fremføres i Lovforslaget. Den tilgængelige data peger entydigt på, at
tjenesteudbydere fjerner langt mere lovligt end ulovligt indhold målt både forholdsmæssigt og i
absolutte tal. Endvidere må det lægges til grund, at andelen af ulovligt indhold hos tjenesteudbydere
er endog meget lavt, hvorfor det er svært at se det nødvendige og presserende behov for
Lovforslaget, hvis indhold endvidere ikke kan siges at være proportionelt med det formål, regeringen
ønsker at opnå. Tværtimod kan der argumenteres for, at Lovforslagets ordning er direkte
uproportional fordi den (1) pålægger tjenesteudbyderne en særdeles vidtgående forpligtelse, med
(2) en særdeles kort tidsfrist, der (3) er sanktioneret med bødestraf, hvilket samlet set medfører en
overhængende risiko for, at tjenesteudbyderne vil fjerne endnu mere lovligt indhold.
Det bemærkes i den forbindelse, at det franske Forfatningsråd i den såkaldte
”Avia-afgørelse” fra
2020 har behandlet spørgsmålet om, hvorvidt den forslåede franske lovgivning om internetplatforme
var forenelig med den franske forfatning, herunder ytringsfriheden. Det Franske forfatningsråd
fremførte i den forbindelse, at tjenesteudbyderne med lovgivningen pålægges ansvaret for at
foretage juridiske vurderinger af indhold, der ikke tidligere er blevet underlagt juridiske
undersøgelser. Tjenesteudbyderne blev dermed forpligtet til at foretage grundige juridiske
overvejelser inden for en tidsfrist på 24 timer. Det franske forfatningsråd fandt dette sammenholdt
med risikoen for store bødestraffe, at lovforslaget indebar et indgreb i ytringsfriheden, der ikke kunne
anses for nødvendigt, passende eller proportionalt, hvorfor den franske ordning var
forfatningsstridig og måtte droppes.
FNs Special Rapporteur, David Kaye, har ligeledes rejst samme bekymring i forhold til
proportionaliteten, idet risikoen for de høje bødestraffe sammenholdt med korte tidsrammer på 24
timer eller 7 dage kan medføre en tendens til, at tjenesteudbyderne vil overregulere indhold i forhold
Se eks Persily, N., & Tucker, J. (Eds.). (2020). Social Media and Democracy: The State of the Field, Prospects for Reform
(SSRC Anxieties of Democracy). Cambridge: Cambridge University Press. doi:10.1017/9781108890960 og Alexandra A.
Siegel, Evgenii Nikitin, Pablo Barberá, Joanna Sterling, Bethany Pullen, Richard Bonneau, Jonathan Nagler and Joshua A.
Tucker (2021), "Trumping Hate on Twitter? Online Hate Speech in the 2016 U.S. Election Campaign and its Aftermath",
Quarterly Journal of Political Science: Vol. 16: No. 1, pp 71-104. http://dx.doi.org/10.1561/100.00019045
12
9
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0115.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
til deres egne retningslinjer, hvilket vil føre til, at indhold der ellers ville være beskyttet af
menneskerettighederne, vil blive fjernet eller blokeret.
I sin rapport fra 2018 anfører David Kaye således, at
”States
should refrain from imposing disproportionate sanctions, whether heavy
fines or imprisonment, on Internet intermediaries, given their significant chilling
effect on freedom of expression” (2018, para 66).
Samt:
“The risk appears even higher considering the strict time periods of 24 hours and
7 days according to which social networks must assess and remove content in
violation of domestic law. The short deadlines, coupled with the afore-mentioned
severe penalties, could lead social networks to over-regulate expression - in
particular, to delete legitimate expression, not susceptible to restriction under
human rights law, as a precaution to avoid penalties. Such pre-cautionary
censorship, would interfere with the right to seek, receive and impart information
of all kinds on the internet.”
13
Samlet set må det lægges til grund, at de bekymringer i forhold til konsekvenserne for
ytringsfriheden som er blevet fremsat af det Franske Forfatningsråd, FNs Special Rapporteur for
Ytringsfrihed og FNs Menneskerettighedskomité ovf. hhv. den franske AVIA-lov og den tyske NetzDG
i vidt omfang også gør sig gældende ift. Lovforslaget.
Som nævnt ovenfor opstiller Lovforslaget særdeles korte tidsfrister til at foretage grundige juridiske
overvejelser og afvejninger af det konkrete indhold. Justitia har i rapporten:
Rushing to Judgment:
Are Short Mandatory Takedown Limits for Online Hate Speech Compatible with The Freedom of
Expression
, redegjort for, hvilke konsekvenser sådanne korte tidsfrister kan have for ytringsfriheden.
I perioden fra 2016 til 2019 tog det således i gennemsnit 601 dage fra anmeldelsestidspunktet at få
afgjort sager vedrørende overtrædelse af straffelovens § 266b (racismeparagraffen) ved de danske
domstole i 1. instans. De korte tidsfrister, der fremføres i Lovforslaget, adskiller sig således markant
fra domstolenes behandling af selvsamme spørgsmål.
Ved at forpligte tjenesteudbyderne til at overholde korte tidsfrister øges risikoen for at
tjenesteudbyderne vil være mere tilbøjelige til at lægge vægt på at fjerne kontroversielt men lovligt
indhold, snarere end at lægge afgørende vægt på ytringsfriheden
14
. På den måde vil de korte
tidsfrister medføre en risiko for en
såkaldt ”
better safe than sorry
”-politik
15
. Risikoen herfor forøges
https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf
Rushing to Judgment: Are Short Mandatory Takedown Limits for Online Hate Speech Compatible with The Freedom of
Expression,
s. 13.
15
Rushing to Judgment: Are Short Mandatory Takedown Limits for Online Hate Speech Compatible with The Freedom of
Expression,
s. 33.
13
14
10
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0116.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
af, at tjenesteudbyderne i lovforslaget ikke forpligtes til at opstille en klageadgang for indhold fjernet
eller blokeret i henhold til tjenesteudbyderens egne retningslinjer. Når tjenesteudbyderen foretager
indholdsmoderation efter egne retningslinjer, vil således både klageadgangen og den korte tidsfrist
bortfalde, hvilket fremstår særdeles fordelagtigt for tjenesteudbyderen, der herved både undgår at
bruge de fornødne ressourcer, samt et eventuelt retligt ansvar for ikke at overholde tidsfristen.
Denne tendens ses allerede i praksis bl.a. i tilknytning til indførelsen af NetzDG i primo 2018. I første
kvartal af 2018 fjernede Facebook 2,5 mio. stykker indhold, hvilket steg til hele 9,6 mio. i det første
kvartal af 2020. I andet kvartal i 2020 blev mere end 20 mio. stykker indhold fjernet fra Facebook
med henvisning til, at indholdene brød med Facebooks interne retningslinjer
16
. Heraf kan udledes, at
national regulering af tjenesteudbyderne primært påvirker deres egne retningslinjer på en sådan
måde, at et større antal af indhold fjernes end tidligere. På baggrund af national lovgivning vil
tjenesteudbyderne være tilbøjelige til at definere bl.a. hadtale bredt for at undgå at ifalde ansvar.
Dermed vil tjenesteudbyderne også fjerne indhold, der ellers ville være beskyttet af national ret og
internationale menneskerettigheder
17
.
Med Lovforslaget forpligtes tjenesteudbyderne at håndhæve national lovgivning, idet de forpligtes
til at træffe afgørelse om ulovligt indhold, altså alt indhold som er i strid med den enhver tid
gældende ret, jf. Lovforslagets § 3, nr. 1. Tjenesteudbyderne er imidlertid ikke bundet af
internationale menneskerettigheder, som normalt beskytter statens interaktion i ytringsfriheden
18
.
Selvom tjenesteudbyderne ikke er direkte bundet af internationale menneskerettigheder, har bl.a.
Facebook udtalt, at de forsøger at sørge for, at internationale menneskerettigheder indgår i deres
politik om indholdsmoderation
19
. Omvendt har en analyse af Facebooks Community Standards vist,
at deres definition af hadtale, og dermed ulovligt indhold, er bredere end definitionen ved de
internationale menneskerettigheder
20
.
I den forbindelse bemærker Justitia særligt, at Lovforslaget opstiller processuelle forpligtelser,
hvorved tjenesteudbydere forpligtes til at fastholde, fjerne eller blokere indhold inden for korte
tidsfrister efter modtagne anmeldelser. Omvendt opstilles ingen retningslinjer for, hvordan
tjenesteudbyderne sikrer, at indholdsmoderationen foretages i overensstemmelse med brugernes
ytringsfrihed. Det fremstår således frit for konsekvenser, såfremt tjenesteudbyderne fjerner eller
blokerer indhold, der ikke er ulovligt, så længe tjenesteudbyderne overholder de processuelle krav
og tidsfrister.
The Digital Berlin Wall Act 2: How the German Prototype for Online Censorship went Global
2020 edition,
s. 8.
The Digital Berlin Wall Act 2: How the German Prototype for Online Censorship went Global
2020 edition,
s. 9.
18
Rushing to Judgment: Are Short Mandatory Takedown Limits for Online Hate Speech Compatible with The Freedom of
Expression,
s. 17.
19
Report: A Framework of First Reference
Decoding a Human Rights Approach to content moderation on social media,
16
17
s. 27.
20
Ibid.
11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0117.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
Det store pres på tjenesteudbyderne medfører ligeledes et incitament til at udvide
tjenesteudbydernes egne retningslinjer om forbudt indhold samt en skærpet håndhævelse heraf,
hvorved tjenesteudbyderne undgår at bruge ressourcer på at foretage grundige juridiske vurderinger
af anmeldelse, efterprøvelse og klager i medfør af Lovforslaget.
6. Gennemsigtighed og efterprøvelse
Tjenesteudbyderes indholdsmoderation er tidligere blevet kritiseret for at være ugennemsigtig samt
for en manglende procedure for brugerdeltagelse ved behandling af klager over fjernelse eller
blokering af indhold. Ytringsfrihedskommissionen har bemærket, at der i forbindelse med fjernelse
af ulovligt indhold på platformene bør være et særligt fokus på gennemsigtighed og
klagemuligheder. Dette er med til at sikre, at der alene sker fjernelse af indhold, som er ulovligt.
Lovforslaget indeholder også et udkast til større gennemsigtighed af tjenesteudbydernes
indholdsmoderation, herunder i form af afrapportering i Lovforslagets § 8. Med bestemmelsen
forpligtes tjenesteudbyderne til at udarbejde rapporter med diverse oplysninger vedrørende
fjernelse og blokering af indhold.
Indledningsvist bemærker Justitia, at gennemsigtighed af tjenesteudbydernes indholdsmoderation
er anbefalelsesværdigt, idet gennemsigtigheden bidrager til en diskussion og undersøgelse af
tjenesteudbydernes indholdsmoderation samt mulighed for forbedring af samme
21
. Justitia forholder
sig som udgangspunkt positivt til denne del af Lovforslaget, herunder at tjenesteudbyderne ligeledes
forpligtes til at foretage afrapportering om visse dele deres indholdsmoderation efter egne
retningslinjer
22
.
Omvendt bemærker Justitia særligt, at forpligtelsen om afrapportering af egne retningslinjer alene
henvender sig til ulovligt indhold. Justitia bemærker ligeledes, at forpligtelsen til afrapportering i dele
af Lovforslaget er begrænset fsv. angår tjenesteudbyderens foranstaltninger efter egne retningslinjer.
Trods formålet med den forslåede bestemmelse er gennemsigtighed, vil der fortsat være et tomrum,
hvor tjenesteudbyderne frit kan foretage indholdsmoderation
med risiko for begrænsning af
brugernes ytringsfrihed
uden at dette sker med gennemsigtighed.
Lovforslaget medfører en mulighed for efterprøvelse af tjenesteudbydernes afgørelser truffet efter
Lovforslagets § 5. Justitia forholder sig positivt hertil, idet det sikrer brugernes mulighed for at
udfordre tjenesteudbyderens vurdering af lovligheden af brugerens indhold. Omvendt bemærker
Justitia særligt, at Lovforslaget ikke opstiller en ret til efterprøvelse af fjernelse eller blokering af
indhold efter tjenesteudbyderens egne retningslinjer.
Det bemærkes endvidere, at offentlighedslovens regler om egen acces og aktindsigt ikke finder
anvendelse på oplysninger optaget ved private aktører. Der opstår således et tomrum, hvor
21
Report: A Framework of First Reference
Decoding a Human Rights Approach to content moderation on social media,
s. 30.
22
Lovforslagets s. 86.
12
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0118.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
tjenesteudbyderne får frit spil til at regulere og fjerne brugernes indhold efter egne retningslinjer,
uden at tjenesteudbyderen stilles til ansvar for om indholdsmoderationen foretages med brugernes
ytringsfrihed for øje. Det bør desuden fremhæves, at Lovforslaget ikke formår at sikre brugernes
mulighed for efterprøvelse af tjenesteudbydernes fjernelse eller blokering efter disses egne
retningslinjer.
Justitia stiller sig derfor undrende over for, at nu der ønskes større gennemsigtighed og mulighed
for efterprøvelse, men at Lovforslaget ikke går hele vejen og dermed forpligter til afrapportering og
efterprøvelse af al form for indholdsmoderation, der foretages af tjenesteudbyderne. Dette synes
særligt relevant da der, som vist ovenfor, er statueret en sammenhæng mellem nationale lovreglers
pres på tjenesteudbydere og en stigende regulering og håndhævelse af tjenesteudbydernes egne
retningslinjer.
7. Magtforholdet mellem stat og tjenesteudbydere
Det er flere gange nævnt i Lovforslaget, at der på området for tjenesteudbydernes
indholdsmoderation samt gennemsigtighed heraf m.v. ikke eksisterer gældende lovregler.
Lovforslaget fremstår dermed som et ønske om at føre demokratisk kontrol og tilsyn med det
indhold, der deles på private tjenesteudbyderes platforme og tjenesteudbydernes moderation heraf.
Som Ytringsfrihedskommissionen tidligere har fremført, er der allerede lovregler, der sikrer, at man
som individ efter straffeloven kan stilles til ansvar for deling af ulovligt indhold, ligesom det også er
muligt i medfør af gældende ret at holde tjenesteudbyderne medansvarlige for formidling af ulovligt
indhold. Det er dog ligeledes bemærket, at grænserne for, hvornår tjenesteudbyderne kan ifalde
medansvar ikke er afklaret ved domstolene.
FNs Special Rapporteur, David Kaye, har udtalt, at stater bør udvise tilbageholdenhed med at
uddelegere komplekse juridiske vurderinger af ulovligt indhold til private aktører, idet disse ikke er
forpligtede til eller konkret følger almindelige processuelle standarder, som offentlige myndigheder
er og gør. Lovforslaget medfører netop en uddelegering af sådanne spørgsmål til tjenesteudbyderne,
hvilket kan medføre store konsekvenser for brugerens ytringsfrihed og mulighed for prøvelse heraf.
Selvom Lovforslaget givetvis er udtryk for et ønske om at øge den demokratiske kontrol med de
private tech-giganters indflydelse på den offentlige debat, opnår Lovforslaget i praksis det modsatte.
Lovforslaget giver øget magt til tjenesteudbyderne, herunder dominerende platforme som Facebook
og YouTube, der
de facto
vil komme til at stå for den juridiske vurdering af indhold på sociale medier,
mens myndigheder og uafhængige domstoles rolle minimeres. Selvom tjenesteudbyderne måtte
anlægge et forkert snit og systematisk kategorisere og fjerne lovligt indhold som ulovligt, vil
offentlige myndigheder eller domstole derfor ikke umiddelbart kunne rette op på en sådan fejlagtig
praksis.
13
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0119.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
8. Eksempler på scenarier med problematikker knyttet til
Lovforslaget
Nedenfor skitseres et par eksempler på særlige problematikker knyttet til Lovforslaget.
8.1.
Injurielovgivning
Et særligt eksempel kan fremdrages i forhold til injurielovgivning, herunder straffelovens § 267.
Udgangspunktet for injuriesager er, at disse er undergivet privatpåtale, hvorefter det er den person
ytringen handler om, der skal anlægge sagen ved domstolene.
Såfremt en politiker eller anden magthaver anmoder tjenesteudbyderen om at fjerne indhold med
henvisning til, at indholdet bryder med injurielovgivningen, er der risiko for, at tjenesteudbyderen vil
være tilbøjelig til at fjerne indholdet uden at foretage grundige overvejelser og undersøgelser. Det
kan endda tænkes, at tjenesteudbyderne vil gå langt for at bibeholde en god relation til den relevante
magthaver, idet der er en chance for, at denne i fremtiden skal regulere eller håndhæve regler om
tjenesteudbyderne.
Derudover vil en politiker eller anden magthaver via Lovforslagets mekanisme smertefrit kunne
anmelde en stor mængde angiveligt krænkende indhold rettet mod denne uden at skulle føre
sagerne ved domstolene. På samme måde vil offentligheden ikke have samme mulighed for at blive
underrettet om, hvilke injuriesager den pågældende er involveret i, hvilket adskiller sig fra den
almindelige domstolsbehandling af spørgsmålet.
Det synes særligt problematisk, at offentligheden ingen adgang har til at gøre sig bekendt med
sådanne sager, hvor politikere og andre magthavere føler sig injurieret og reagerer i forhold til den
oplevede krænkelse, hvilket kan medføre store konsekvenser for den offentlige debat.
Dette kan også tænkes relevant i forhold til andre bestemmelser i straffeloven. I marts 2021 blev en
kvinde anholdt og sigtet efter straffelovens § 119, ligesom hun fik sin bærbare computer og
mobiltelefon konfiskeret. Det skyldtes at kvinden havde lagt et billede af en brændende dukke af
Mette Frederiksen op i en facebookgruppe som protest mod, at de personer der afbrændte dukken
var blevet anholdt og sigtet efter meget alvorlige bestemmelser i straffeloven.
23
Efter et par uger
valgte politiet dog at droppe sigtelsen.
24
I det tilfælde, at kvindens opslag var blevet anmeldt som
ulovligt til Facebook ville der være en overhængende fare for, at Facebook valgte at fjerne opslaget
og dermed beskytte en magthaver mod lovlig kritik, uden at en sådan beslutning blev truffet af en
uafhængig instans eller gjort offentlig.
23
24
https://www.berlingske.dk/nyheder/ikke-skyggen-af-en-reel-trussel-anholdelse-af-kvinde-for-facebook-opslag
https://www.berlingske.dk/samfund/blev-sigtet-for-at-offentliggoere-billede-af-braendende-statsministerdukke
14
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0120.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
8.2.
Virksomheder (markedsføringsregler)
Som tidligere nævnt forpligter Lovforslaget tjenesteudbyderne til efter anmodning at fjerne alt
ulovligt indhold, der strider mod gældende ret. Dette gælder dermed også overtrædelser af f.eks.
markedsføringsreglerne.
Dette kan medføre konsekvenser for særligt mindre virksomheder på det danske marked.
Lovforslagets ændring kan bl.a. medføre, at større virksomheder gennem anmeldelser til
tjenesteudbyderne kan få fjernet konkurrenters markedsføringsindhold uden at bruge ressourcer på
en almindelig domstolsproces.
8.3.
Racismeparagraffen
Et tredje scenarie kan opstilles vedrørende ”racismeparagraffen” i straffelovens § 266 b. Det kan
tænkes at forskellige organisationer vil anvende Lovforslagets mulighed om at anmelde indhold
direkte til tjenesteudbyderne, der derefter vil fjerne eller blokere indholdet.
I den forbindelse er der risiko for, at tjenesteudbyderne vil fjerne indholdet, selvom dette ikke direkte
er ulovligt efter straffelovens § 266 b. Dette synes særligt relevant såfremt tjenesteudbyderne anser
opslaget for anstødeligt, og trods lovligheden af indholdet vil fjerne det med henvisning til egne
retningslinjer.
Som fremført ovenfor opstiller Lovforslaget ikke mulighed for efterprøvelse eller gennemsigtighed
af indholdsmoderation efter tjenesteudbydernes egne retningslinjer. Der foreligger dermed en risiko
for en udvidelse af anvendelsesområdet af racismeparagraffen, hvilket kan medføre problematikker
knyttet til brugerens ytringsfrihed og mulighed for deltagelse i den offentlige debat på platformene.
9. Forholdet til EU og DSA
Endeligt bemærker Justitia, at tidspunktet for fremsættelsen af nærværende Lovforslag synes
bemærkelsesværdigt, da forslag til Europa-Parlamentet og Rådets Forordning om et indre marked
for digitale tjenester (retsakt om digitale tjenester) og om ændring af direktiv 2000/31/EF (også kaldt
DSA; Digital Services Act) pt. er under behandling ved EU. Generelt kan der således sættes
spørgsmålstegn ved, hvorfor Folketinget ikke afventer endeligt fastsatte EU-regler, som vil sikre
effektivitet og harmonisering på området.
Justitia bemærker derudover, at det forslåede Lovforslag på mange måder adskiller sig fra det
forslåede i DSA. Hertil kan bl.a. nævnes, at det danske Lovforslag opstiller strengere regler for så vidt
angår tidsfristen til fjernelse og blokering af ulovligt indhold. DSA opstiller ingen tidsrammer for
sådan indholdsmoderation, men bruger i stedet vendinger om, at tjenesteudbyderne skal underrette
anmelderen om afgørelsen ”uden unødig forsinkelse”
25
.
Europa-Parlamentet og Rådets Forordning om et indre marked for digitale tjenester (retsakt om digitale tjenester) og
om ændring af direktiv 2000/31/EF, art. 14, stk. 5 samt art. 17, stk. 4.
25
15
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0121.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
Vedrørende fjernelse af ulovligt indhold fremgår det af DSA, at tjenesteudbydere ikke ifalder ansvar
for indhold, når denne efter at have fået kendskab til ulovligt indhold, straks tager skridt til at fjerne
pågældende indhold eller hindre adgangen til indholdet, dog uden at der fastsættes en direkte
tidsramme
26
. DSA fremfører desuden et markant større fokus på brugernes ytringsfrihed end
nærværende Lovforslag formår. Af DSA fremgår eksplicit, at fjernelsen eller blokering af indhold bør
ske under overholdelse af ytringsfriheden
27
.
Bemærkningerne til Lovforslaget fremhæver, at det på baggrund af omfattende og hurtig spredning
af indhold vurderes, at det ikke er hensigtsmæssigt at afvente DSA, hvorfor det i Lovforslaget
fremhæves, at det er vigtigt at indføre nationale lovregler indtil DSA træder i kraft
28
.
Som nævnt flere gange i nærværende høringssvar finder Justitia ikke, at der foreligger en sådan reel
risiko for ”omfattende” spredning af ulovligt indhold, at Danmark bør indføre nærværende Lovforslag
inden DSA træder i kraft.
10.
Konklusion/ anbefaling
Samlet set har ovenstående vist, at Lovforslaget kan medføre en række konsekvenser for danskernes
ytringsfrihed. Særligt problematisk synes det, at Lovforslaget uddelegerer håndhævelse af nationale
retsregler, der ikke er nærmere specificeret, til private aktører. Dette sammenholdt med den korte
tidsfrist, som tjenesteudbyderne skal træffe afgørelser inden for, for at undgå at ifalde store
bødestraffe, skaber særlige problematikker knyttet til ytringsfriheden.
Lovforslaget pålægger tjenesteudbyderne forskellige processuelle forpligtelser bl.a. ved krav om
etablering af anmeldelsesprocedurer, krav om begrundede afgørelser ved fjernelse eller blokering af
indhold samt tidsfrister for nedtagning af ulovligt indhold på platformene.
Justitia finder det særligt problematisk, at Lovforslaget pålægger private aktører en forpligtelse til at
håndhæve uspecificerede danske retsregler i henhold til en særdeles urealistisk tidsfrist. Det skaber
et incitament til at ”overregulere”
og fjerne lovligt indhold i henhold til tjenesteudbydernes egne
retningslinjer, der ifølge Lovforslaget er undtaget fra kravene om gennemsigtighed og klageadgang.
Justitia påpeger også, at Lovforslaget ikke dokumenterer eller sandsynliggør at ulovligt indhold
udgør et alvorligt problem på sociale medier. Tværtimod tyder den tilgængelige data på, at omfanget
af ulovligt indhold er stærkt begrænset. På den baggrund finder Justitia det tvivlsomt, om
Lovforslaget lever op til kravene om forudsigelighed og proportionalitet, som følger af
ytringsfriheden som sikret i internationale menneskerettighedskonventioner fra FN og Europarådet.
Justitia anbefaler, at lovgiver følger Ytringsfrihedskommissionens anbefalinger og afholder sig fra at
indføre national regulering af indholdet på sociale medier, og i stedet opprioriterer politi- og
Europa-Parlamentet og Rådets Forordning om et indre marked for digitale tjenester (retsakt om digitale tjenester) og
om ændring af direktiv 2000/31/EF, s. 24.
27
Ibid.
28
Lovforslagets s. 16
26
16
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0122.png
Justitia
|
Danmarks uafhængige juridiske tænketank
Høringssvar til forslag til Lov om regulering af sociale medier
anklagemyndigheds ressourcer i forhold til at efterforske og retsforfølge de groveste overtrædelser
af straffeloven på sociale medier, med fokus på at straffe de personer der rent faktisk deler sådant
ulovligt indhold.
I tillæg hertil kan regeringen overveje initiativer, der forpligter eller give tjenesteudbydere et
incitament til at tilbyde deres brugere tilgængelige og anvendelige teknologiske løsninger, der giver
den enkelte bruger større adgang til selv at filtrere det indhold, man bliver mødt med på sociale
medier.
Såfremt lovgiver fastholder behovet for regulering af sociale medier, bør loven begrænses til at have
fokus på transparens og gennemsigtighed. Det vil give både brugerne, myndigheder og lovgiver
større viden om indhold og moderering heraf på sociale medier, og dermed et stærkere grundlag til
at tage stilling til behovet for evt. fremtidig lovgivning om indholdsmoderering. Såfremt lovgiver
fastholder, at det er nødvendigt også at lovgive om indholdsmoderering anbefaler Justitia, at
omfanget begrænses til særligt alvorlige forbrydelser i straffeloven såsom reelle trusler, tilskyndelse
til terror og alvorlig kriminalitet og hævn- og børneporno, samt at tidsfristen gøres mere fleksibel
end absolutte frister på eks. 24 timer eller 7 dage.
17
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0123.png
Fra:
Til:
Cc:
Emne:
Dato:
Claus Noer Hjorth DFI
Louise Due Dirksen Cifuentes
Casper Hollerup DFI; Sarah Sofie Thiele DFI; Stine Johansen
Høring af udkast til lov om regulering af sociale medier
21. januar 2022 14:24:45
Til Konkurrence- og Forbrugerstyrelsen
På Medierådets vegne takkes for udkast til lov om regulering af sociale medier.
Som led i regeringens initiativ om de sociale mediers ansvar (august 2021) har Medierådet fået
til opgave at koordinere etiske retningslinjer og en mærkningsordning for indhold og
brugssituationer, som danske børn og unge møder og interagerer i digitalt. På den baggrund vil
Medierådet følge debatten om nærværende lovinitiativ tæt, men afholde sig fra at kommentere
på lovudkastet. Medierådet har navnlig have fokus på gråzonen mellem lovbestemmelser om
ulovligt indhold vs ”skadeligt”, men ikke nødvendigvis ulovligt indhold; børn og unges digitale
rettigheder (herunder retten til beskyttelse, deltagelse og ytringsfrihed) samt deres sociale liv på
nettet på godt og ondt. Medierådet er tillige optaget af samspillet til EU-initiativet om Digital
Service Act, lovkravene til de digitale tjenester (om fx nedtagning, sletning og klageadgang) samt
ikke mindst lovgivningens definitioner og afgrænsning af feltet.
På den baggrund skal jeg på Medierådets vegne udtrykke ønske om et snarligt møde med
henblik på drøftelse af ovennævnte temaer.
Med venlig hilsen
Claus Hjorth
Claus Hjorth
Afdelingschef / Head of department
Børn & Unge / Children & Youth
Medierådet / Media Council for Children and Young People
Det Danske Filminstitut - The Danish Film Institute
Gothersgade 55, DK-1123 Copenhagen K
Denmark
P +45 2261 5381
M
[email protected]
Skype
[email protected]
www.dfi.dk
www.medieraadet.dk
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0124.png
Konkurrence- og Forbrugerstyrelsen
Louise Cifuentes - [email protected]
Susanne Aamann - [email protected]
Submission to the consultation on the Danish regulation on social media
The Danish Competition and Consumer Authority (Konkurrence- og Forbrugerstyrelsen)
has opened a consultation procedure regarding the Draft Bill on Regulation of Social Media
based on the government's initiative “Social media responsibility – Stricter requirements for
social media and digital education of children and young people”. Meta
1
welcomes this
opportunity to share its comments on the Draft Bill.
Meta is present in Denmark and engages constructively with Danish authorities on a regular
basis to share information about its work and obtain feedback. We have in place dedicated
reporting tools for our users and certain other stakeholders, including Danish authorities. We
engage extensively with civil society organizations on an ongoing basis, and we support local
initiatives to improve digital safety, wellbeing, and media literacy. This work takes place through
support of organizations such as Save the Children and SletDet, StopChikane, GirlTalk, and
TjekDet. Another aspect of our local efforts to improve online safety is through organizing
seminars and roundtables with Danish experts to exchange knowledge and insights about how
our apps and services are used, to get feedback as well as share information about our ongoing
work. This work takes place to improve safety online and to support the ambition of improving
the digital education of children and young people.
Meta supports the Danish government’s goal of having illegal content effectively and quickly
removed from online platforms. As we will outline in this submission, Meta is already working
hard to achieve this goal using industry leading technology, extensive reporting systems and
regular transparency reports. Meta is in favour of having updated frameworks around the digital
sphere and we support new regulation in a number of areas. However, Meta is concerned that
this Draft Bill will fail to meet Danish government objectives by setting a separate national path
that is inconsistent with the European Union’s current work on the Digital Services Act (DSA)
and is of the opinion that the Draft Bill is incompatible with existing EU law (i.e. the e-Commerce
Directive).
Further, the Draft Bill fails to consider the operational difficulties related to the obligations that it
imposes. The Draft Bill’s definition of "illegal content", which is defined as “any content which is
contrary to the law in force at any time”, is extremely broad, and the requirement that all content
must be reviewed against this standard when reported makes it particularly difficult – if not
1
The Facebook company is now Meta. Meta Platforms Ireland Ltd. (formerly “Facebook Ireland Ltd.”) is
the service provider of Facebook and Instagram in Denmark. We’ve updated our Terms of Use, Data
Policy, and Cookies Policy to reflect the new name on January 5, 2022. While our company name has
changed, we are continuing to offer the same products, including the Facebook and Instagram apps from
Meta.
https://www.facebook.com/help/1561485474074139
1
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0125.png
impossible – for service providers to evaluate reports. Indeed, the Draft Bill overlooks the
technical and operational realities of dealing with reports of illegal content at scale, and sets
extremely burdensome deadlines for service providers to take action and respond to such
reports. This is compounded by the fact that the Draft Bill would prohibit service providers from
requiring reporters to state the reason(s) for their reports and/or which legislation reporters
believe is being violated. These factors are counterproductive to the Draft Bill's aim of securing
a "safe, predictable and reliable online environment".
The Draft Bill is also likely to interfere with users' freedom of expression as it will make service
providers more inclined to remove borderline content, due to the short deadlines for reviewing
and making decisions on the legality of content, combined with fines of “deterrent effect”. This,
in turn, will have a chilling effect on users' freedom of expression.
Moreover, the Draft Bill, which would impose fines of up to 6 percent of adjusted global turnover
for non-compliance, will harm competition by acting as a barrier to entry to the Danish market for
both Danish and outside social media platforms. The Draft Bill’s onerous obligations are also
likely to impose, for service providers both large and small, substantial compliance costs that
are disproportionate to the legislation’s proposed objectives, restricting both the Draft Bill’s
effectiveness and competition for Danish consumers. New and innovative actors in the market
will have a very hard time living up to the complicated and extensive demands in this law.
1. Meta’s approach to content moderation and transparency
Meta is committed to making its services safe and respectful places for all users to share and
connect with others while balancing the rights of users to freely express themselves. Keeping
people safe is one of Meta’s core principles and one which it takes very seriously. This
commitment begins with the Terms of Service, which all users must accept and which prohibits
users from doing or sharing anything that is unlawful, misleading, or fraudulent or that infringes
or breaches someone else’s rights.
In addition to our Terms, we also have Community Standards, the global set of policies that
outlines what is and is not allowed on Facebook.
2
Our
Community Standards
are publicly
available on our website and apply to everyone, all around the world, and to all types of content.
Given the global and diverse nature of the community we serve, our Community Standards do
not necessarily reflect any specific legal system, nor are they intended to cover all local laws.
However, as they are designed to prevent harm, they do overlap in a number of instances with
local law. We believe freedom of expression is a fundamental human right and we are focused
on creating services which give everyone a voice, no matter what their views are. That’s why we
consult with experts (including academics, non-governmental organizations and human rights
lawyers) across the political spectrum when we develop our policies and why they apply to
everyone on Facebook and Instagram.
2
For Instagram, we have
Community Guidelines,
however, for ease of reference, we refer herein to
Facebook’s Community Standards.
2
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0126.png
Our Community Standards are enforced both reactively based on reports from the community,
as well as, in certain circumstances, proactively. People can and do report content to us that
they believe violates our Community Standards, including Pages, groups, profiles, individual
posts and comments, using the dedicated tools on the platform. We process millions of
Community Standards reports every week. To do this, we use a combination of human review
and automation. If reported content is found to violate our Community Standards, we take it
down globally; if it doesn't, we leave it up. We also provide appeal channels where appropriate.
Individuals and European users also have the ability to report content to us that they believe to
be illegal under local law. Content reported to us in this way is first reviewed against our
Community Standards. Where reported content does not violate our Community Standards but
is clearly unlawful based on applicable local law, we may restrict access to that content in the
relevant country. We also have dedicated channels for rights holders to report content they
believe infringes their intellectual property rights, including copyright infringement, trademark
infringement and counterfeits, and for people to report content they believe is defamatory. These
reports are reviewed by operational specialist teams and, upon receipt of a complete and valid
report of infringement or defamation, will take appropriate action.
Our tools empower users to share and create content that is important to them, and allow users
to share diverse views, experiences, ideas and information. Facebook and Instagram policies
are continuously evolving. As speech continues to change, the way people engage on the
platform does too. In addition to evolving speech, trends related to real world events are also
taken into consideration when developing and refining policy.
At Meta’s scale, content review requires the partnership of multiple teams and subject matter
experts across policy, product, and operations. These teams work together to address
enforcement with the thought and skills a project of this complexity requires. We have 40,000
people working on safety and security, this includes over 15,000 content reviewers based in
sites around the world, so we can review reports 24/7. Collectively, our global review teams are
capable of reviewing reports in over 70 languages, including Danish. We know that
understanding context is crucial, so content reviewers need also to understand a nation's culture
and history.
Any system that operates at scale and for a global user base will make errors. For this reason,
in April 2018, we launched appeals, globally, for content that was removed for violating our
Community Standards for nudity or sexual activity, hate speech and violence. We've extended
this option so that appeals are now available for additional content areas, including, bullying and
harassment, regulated goods, and spam.
We are continuing to roll out appeals for additional types of Community Standards violations, but
there are some violation types – for example, severe safety policy violations – for which we don't
offer re-review. We are also beginning to provide appeals not just for content that we took action
on, but also for content that was reported but not acted on. Notably, the Draft Digital Services
Act would, as currently drafted, require online platforms to allow users to appeal decisions by an
online platform to, among other things, remove or disable access to information.
3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0127.png
Here's how the process works for many of our appeals:
● If your photo, video or post has been removed for violating our Community Standards,
you will be given the option to “Request Review” on both mobile and desktop.
● Appeals are reviewed by our Community Operations team.
● If we've made a mistake, the content will be restored and we will notify the person who
requested the appeal.
● When an appeal happens, it is usually sent to our Community Operations team for a
second review by someone different than the person who originally reviewed the
content.
Meta also recognises the challenges presented by difficult cases, for this reason we set up the
Oversight Board. It is also important to highlight the role of the Oversight Board in providing
additional scrutiny and accountability on our content moderation practices. The Oversight Board
is a global body of experts, separate from Meta, that makes independent and binding decisions
on Facebook and Instagram cases they choose to hear. It was created as an independent
operational grievance mechanism, providing users an additional course for remedy, and to help
Meta answer some of the most difficult questions around freedom of expression online: what to
take down, what to leave up, and why. In its first decisions, it has already demonstrated its
independence in overruling the company on four of our first five decisions. This approach by the
Oversight Board, has been set up to ensure that decisions are made in an objective manner.
Regarding misinformation, our approach is guided by the principle that we should provide
people with accurate and informative content, while balancing freedom of expression. Our users
want to see high quality content on our platform, and so do we, which is why our strategy to
combat misinformation has three parts: remove, reduce, and inform.
This strategy involves removing content that violates our policies, reducing the spread of
problematic content that does not violate our policies but still undermines the authenticity of the
platform, and informing people with additional information so they can choose what to click, read
or share.
1.
We remove content and accounts that violate our Community Standards, which includes
fake accounts and accounts engaged in inauthentic behavior, misinformation that may
contribute to the risk of imminent violence or harm, voter fraud or interference, hate
speech, bullying and harassment, misleading manipulated videos, violence inducing
conspiracy networks, and misinformation that contributes to imminent physical harm. We
also remove ads that violate our Advertising Policies, including ads with debunked
claims by third-party fact-checkers or, in certain circumstances, by authoritative bodies,
as well as our Community Standards.
We reduce the distribution of problematic content that does meet the standards for
removal under our Community Standards, but which undermines the authenticity and
integrity of our platform. This would include low-quality content, like clickbait, and content
debunked by our third-party fact-checkers. We do this by demoting the content on
4
2.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0128.png
Facebook’s News Feed, which significantly reduces the number of people on Facebook
and Instagram who see it.
Third-Party Fact-Checking: We have partnered with over 80 third-party
fact-checking organizations around the world, covering over 60 languages. These
fact-checkers are certified through the non-partisan International Fact-Checking
Network (IFCN) and would rate and review the accuracy of content on our
platform. When posts are rated false by our fact-checking partners, we reduce its
distribution so that less people see the posts. We demote the posts that have
been debunked by our fact-checkers. In Denmark, we work with TjekDet - their
vital work will help us continue to reduce the spread of Danish-language
misinformation on our platforms.
3.
We inform and help prevent the spread of misinformation by providing our users with
additional context and connecting them with accurate information so that they can make
informed decisions. Here are some examples:
Misinformation labels: Content across Facebook and Instagram that has been
rated false or partly false by our fact-checkers are prominently labeled so people
can better decide for themselves what to read, trust, and share.
Connecting people to accurate and authoritative information: We launch
products, such as our Climate Science Information Center and our Voter
Registration and Election Day Reminders, to connect people with credible and
accurate information about the topic.
Additional context about content people share: We recently introduced a new
notification screen that lets people know when news articles they are about to
share are more than 90 days old.
Digital & Media Literacy: We are also investing in media and digital literacy
initiatives to raise awareness and help people be more critical about the
information they see. In Denmark, we have on several occasions supported
TjekDet, most recently ahead of the Regional and Municipal elections with a
campaign aimed at increasing young Danes’ media literacy.
Transparency
As explained above, our Community Standards are developed for a global user base and
although in many instances they are designed to prevent harm that may naturally overlap with
the objectives of local laws, they operate independently of local legal requirements. In addition,
Meta provides separate reporting mechanisms for its community of users, government
authorities and intellectual property rights holders to report content that they believe violates
relevant local laws. To capture both sides of this content enforcement, Meta publishes regular
reports since May 2018 to give our community visibility into how we enforce policies, respond to
data requests and protect intellectual property (first report in November 2017), while monitoring
dynamics that limit access to Meta’s products for example triggered by local law reporting.
5
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0129.png
1. Community Standards Enforcement Report : We publish this report on a quarterly basis
to more effectively track our progress and demonstrate our continued commitment to
making Facebook and Instagram safe and inclusive. The report shares metrics on how
we are doing at preventing and taking action on content that goes against our
Community Standards. These actions may include removing content or covering content
with a warning screen. Content violating Community Standards is not necessarily illegal.
In 2020, we took a further step towards validating that our metrics are measured and
reported correctly. We contracted with an external auditor, Ernst and Young, to conduct
an
independent audit
of our metrics and their assessment will be published once
completed.
2. Content Restrictions Based on Local Law: When something on Facebook or Instagram is
reported to us as violating local law, but doesn't go against our Community Standards,
we may restrict the content's availability in the country where it is alleged to be illegal.
We receive reports from governments and courts, as well from non-government entities
such as members of the Meta community and NGOs. This report details instances where
we limited access to content based on local law. This report is published twice a year,
and includes
Denmark.
3.
Intellectual Property:
We share metrics around content that is removed from Facebook
and Instagram based on copyright, trademark and counterfeit reports globally, as well as
the volume of IP reports we receive and the overall action rate. Beginning in May 2021,
the transparency report now includes metrics about the amount of content Facebook and
Instagram remove proactively for copyright and counterfeit reasons, and the percentage
of content removed proactively.
In addition to this reporting work, Meta has joined the
Digital Trust & Safety Partnership
(DTSP),
a new industry-led initiative focused on promoting a safer and more trustworthy internet.
Members of the DTSP are committed to following industry best practices in five key areas:
● Identify, evaluate, and adjust for content- and conduct-related risks in product
development.
● Adopt explainable processes for product governance, including which team is
responsible for creating rules, and how rules are evolved.
● Conduct enforcement operations to implement product governance.
● Assess and improve processes associated with content- and conduct-related risks.
● Ensure that relevant trust & safety policies are published to the public, and report
periodically to the public and other stakeholders regarding actions taken.
Each DTSP member will perform a review of its trust and safety practices against these five
commitments, also known as the “Digital Trust & Safety Partnership Best Practices Framework.”
This effort is not directed toward individual company policies or decisions, but focuses on how to
perform and assess trust and safety as an evolving field. The Partnership will engage with
consumer/user advocates, policymakers, law enforcement, relevant NGOs and various
6
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0130.png
industry-wide experts to help further develop these best practices.
2. The Draft Bill’s requirements are unrealistic, disproportionate, and interfere with
freedom of expression
With regards to the Draft Bill submitted to consultation, Meta is concerned that it will fail to meet
Danish government’s objectives as it overlooks the technical and operational realities of dealing
with reports of illegal content at scale, and sets extremely burdensome deadlines for service
providers to take action and respond to such reports – which will incentivise towards
over-removal and hence harm freedom of speech.
a. The Draft Bill’s requirements are unrealistic and disproportionate
The timeframes proposed under the Draft Bill are overly strict and extremely burdensome. For
example, the requirement under Section 5 to deal with some reports within 24 hours (i.e., those
that can be assessed without further investigation) would impose a
de facto
obligation on
service providers to individually assess all reports almost immediately upon receipt in order to
determine whether the 24-hour time limit will apply. In addition, the Draft Bill would impose
unclear requirements for when the 7 or 14 day time limits may apply (e.g., it is unclear what
concepts such as “without further investigation”, “exceptional circumstances” or “highly complex
content” mean in practice). Further, any review of decisions would have to be completed within
7 days, and this timeframe could not be extended. This is another unrealistic deadline,
particularly where there are highly complicated issues of fact and law.
At the same time, Section 5 imposes a duty on service providers to investigate the lawfulness of
content reported under the Section 4 mechanism. This is clearly disproportionate, and places an
undue and unworkable obligation on service providers to both investigate the factual
circumstances relevant to reported content and make their own legal assessments as to the
legality of the content in question. Even if service providers could be required to conduct such
factual investigations and legal assessments (which, as explained below, they cannot) – and
even if they could effectively do so within the strict time limits imposed (which is unrealistic) –
such matters should be reserved for the courts.
We understand from the preparatory work that the Danish government seeks to tackle illegal
online content as soon as possible. However, it is unrealistic to expect effective and quick action
– as well as accurate and reasoned legal assessments – of national laws by international
companies on extraordinarily short timeframes. As pointed out by the Danish think tank Justitia
3
in its paper, it took the Danish authorities on average 601 days to determine if an alleged hate
speech piece of content is illegal under their own laws in the first instance (2016 - 2019), and
3
Rushing to judgement, are Short Mandatory Takedown Limits for Online Hate Speech Compatible with
The Freedom of Expression? By Jacob Mchangama, Natalie Alkiviadou and Raghav Mendiratta
https://futurefreespeech.com/wp-content/uploads/2021/01/FFS_Rushing-to-Judgment-3.pdf
7
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0131.png
1341 days for the cases that reached the European Court of Human Rights. It makes the 24
hours/7 days deadlines set by the Draft Bill even more unfeasible and unreasonable.
By contrast, service providers – which, as explained below, cannot be required to generally seek
facts or circumstances indicating illegal activity – should be given flexibility to prioritize reports
according to, e.g, the severity of the content at-issue. For example, a service provider should
not be required to equally treat an (alleged) minor insult that has 4 views and a live terrorist
video that has 3 million views.
The Draft Bill’s onerous obligations – violation of which may, in some cases, result in penalties
of up to 6 percent of adjusted global turnover – are likely to create compliance costs that are
disproportionate to the legislation’s proposed objectives and the number of users potentially
impacted by the legislation, restricting both the Draft Bill’s effectiveness and competition for
Danish consumers.
b.
The Draft Bill will impact Danish users’ freedom of expression
Due to the short deadlines for reviewing and making decisions on the legality of content,
combined with fines of “deterrent effect”, the Draft Bill will interfere with users' freedom of
expression as it could make service providers more inclined to remove borderline content.
It is understandable that policymakers want to hold service providers accountable. But an
approach that is based on single pieces of reported content is difficult as we are talking about
the thin line between freedom of speech on the one side and forbidden speech on the other
side. It is incredibly hard to make these legal assessments. Independent research supports this
view: the Danish think tank
Justitia
noted that on average national legal authorities take over
700 days to decide on the legality of a piece of hate speech content.
"...the difficulties involved
in establishing the manifest unlawfulness of content, and the risk of numerous notifications that
may turn out to be unfounded, make a 24-hour time limit extremely short for online
intermediaries. In all jurisdictions studied in this report, domestic legal authorities took drastically
longer to answer the same question of whether the speech was lawful or not. Austrian
authorities took 1273.5 days; Danish authorities took 1341 days to reach their decision; French
authorities took 420.91 days, German authorities took 678.8 days, and English authorities 393
days. Overall, the data extracted from all hate speech judgments of the ECtHR reveals that
domestic legal authorities took 778.47 days across all jurisdictions of the Council of Europe."
The Draft Bill could have the unintended consequence to have a chilling effect on users'
freedom of expression. Indeed, quick determination of potential illegality incentivises
over-removal at the expense of a quality-led decision-making process. These obligations will be
particularly challenging given that, as written, the bill would prohibit service providers from
requiring reporters to explain the legal bases for their reports. This chilling of free speech would
particularly be prejudicial to Danish citizens as one of the Danish government’s objectives is to
avoid removing or blocking lawful content as stated in its preliminary work.
8
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0132.png
Furthermore, by setting a rigid framework, the model currently set out by the Draft Bill could
have counterproductive effects by incentivizing platforms to use their resources more quickly to
review user and government reports on a first in-first-out basis rather than to prioritize reports
according to the severity of the content.
4
In Germany, the results of
independent research
found that NetzDG (the Network Enforcement
Act) created incentives for ‘overblocking’ and rapid deletion of content, and did not achieve the
regulatory goals of the law. This research considered the methodological flaws in the German
Government's own research which hailed the law a ‘success’. The authors also underline the
concern expressed in 2017 by the former President of the Federal Constitutional Court (BVerfG)
Prof. Dr. Dr. h.c. Hans-Jürgen Papier that it "raises the question whether the legislator of the
Network Enforcement Act has sufficiently taken into account the objective constitutional value
decision in favour of freedom of speech in Article 5 (1) of the German Basic Law
[Grundgesetz].”
5
3. The Draft Bill violates EU law
As written, the Draft Law – which seeks to regulate internet social services established inside
and outside of Denmark – violates the country of origin principle set forth in Art. 3 of the
E-Commerce Directive, as it effectively restricts the freedom of service providers to provide
information society services in Denmark from another Member State.
a. The Draft Bill violates the Country of origin principle
As the Draft Bill would create new obligations in the context of the handling of illegal content
uploaded by third parties and hosted on social media networks, it falls within the coordinated
field of Art. 2 (h) of the E-Commerce Directive. When applied to service providers established in
another Member State, the proposed law violates the E-Commerce Directive on a number of
grounds and therefore the proposal should be re-visited and reconsidered.
Art. 3 (2) of the E-Commerce Directive determines that “Member States may not, for reasons
falling within the coordinated field, restrict the freedom to provide information society services
from another Member State.” Rather, the competence to regulate service providers lies with its
home Member State, cf. Art. 3 (1) of the E-Commerce Directive - “each Member State shall
ensure that the information society services provided by a service provider established on its
territory comply with the national provisions applicable in the Member State in question which
fall within the coordinated field.”. The Draft Bill introduces several obligations that are likely to
restrict the cross-border provision of services insofar as they apply to communication platforms
established outside of Denmark. Because the Draft Bill requires providers such as Meta to
4
https://about.fb.com/wp-content/uploads/2020/02/Charting-A-Way-Forward_Online-Content-Regulation-
White-Paper-1.pdf
5
https://library.oapen.org/handle/20.500.12657/48794
[summary in English p.8]
9
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0133.png
comply with broad obligations not otherwise found in the country of origin, the Draft Bill restricts
Meta’s ability to provide its service in Denmark.
Exceptions to the country of origin principle are permissible only in limited cases which are not
met here. Art. 3 (4) of the E-Commerce Directive provides that Member States may take
measures to derogate from the country of origin principle only if such measures (i) are taken
against a given information society service, (ii) are necessary to achieve certain enumerated
objectives/reasons; and (iii) are proportionate to such objectives. In addition, the Member State
implementing such measures must, before taking the measures, adhere to a certain procedure.
Here, these exception requirements are not satisfied.
Art. 3 (4) of the E-Commerce Directive limits the derogation to the country of origin principle to
“measures” taken “in respect of a given information society,” and where certain delineated
criteria are met. In its Communication COM(2003) 259 final regarding financial services, the
Commission held that a “given information society” service is taken to mean that the Member
State of destination may not take general measures in respect of a category of services under
Art. 3 (4) E-Commerce Directive. Therefore, the measures must be taken on a case-by-case
basis against a specific service provided by a given operator – e.g., by a judicial or
administrative measure against one specific provider. In short, as a threshold matter, the
exception under Art. 3 (4) is intended to apply to targeted temporary measures, and does not
cover abstract legal obligations (such as the Draft Bill at hand).
The targeted measures requirement is evidently not satisfied in the present case. Rather, the
proposed obligations would, without differentiation, apply to all social networks meeting the
threshold of 100,000 users on average in Denmark in the previous calendar year, irrespective of
their place of establishment.
We note that the European Commission also expressed serious doubts in this regard in its
comments on notification 2019/412/F concerning the French draft “Law aimed at combating
hate content on the internet” (C(2019) 8585 final, 22 November 2019). In particular, the
Commission pointed out the following: “As regards the targeted nature of the measures, the
Commission is not convinced that this requirement is met in the case at hand. It notes that the
notified draft applies generally to virtually any online platform” (ibid., p. 4 f.). The draft French
law was comparable to the proposed obligations at hand in that its provisions also would have
been applicable to providers established outside of French territory.
Even if one were to accept that the notified draft act of national general legislation as such could
qualify as a specific “measure” within the meaning of Art. 3 (4) of the E-Commerce Directive, it
would be highly doubtful whether this measure could be justified. This is because the proposed
obligations (if applied to service providers established in another EU Member State) do not
seem to constitute a proportionate measure in order to achieve a legitimate objective pursuant
to Art. 3 (4) of the E-Commerce Directive.
10
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0134.png
Specifically, the Draft Bill is contrary to Art. 15 of the E-Commerce Directive, which provides that
Member States cannot impose on intermediaries “a general obligation actively to seek facts or
circumstances indicating illegal activity”. However, by prohibiting providers from requiring
reporters to state the reasons for their reports or which legislation the reporter believes is being
violated, the Draft Bill would necessarily require intermediaries to seek out circumstances
indicating illegal activity. This also will cause a conflict between the Draft Bill and the DSA which,
as currently drafted, likewise reflects this prohibition on general proactive monitoring (Art. 7). In
direct contrast to the Draft Bill, Art. 14 of the DSA would require all reporters to provide, among
other things, an explanation as to why they consider reported content to be illegal.
Further, the Draft Bill’s 24-hour removal deadline is neither reasonable nor proportionate – even
moreso when imposed on a provider that, as noted above, cannot be required to generally seek
out facts or circumstances indicating illegal activity. Nor is the deadline flexible (same applies to
the 7-/14-days deadline for complex cases and the 7-days deadline for appeals). Hence, the
24-hour time limit, combined with heavy financial sanctions, creates an improper and
disproportionate burden on online platforms and – under certain circumstances – a risk of
excessive deletion of unlawful content that would infringe freedom of expression. This is even
more problematic – and hence disproportionate – in light of the broad definition of illegal
content.
Finally, even if one were to accept the material requirements of Art. 3 (4) letter a) of the
E-Commerce Directive to be met, we kindly note that letter b) requires that Denmark - before
taking measures - had asked the home Member State to take measures and notified the
Commission and the home Member State of its intention to take such measures. This would
apply to the Draft Bill as such (although, as flagged above, this does not seem to qualify as a
“measure” allowing an exception to the country of origin principle) and subsequent measures
based on the draft Bill. The draft Bill seems to suggest that Section 6(2) of the E-Commerce Act
requires the Competition and Consumer Authority to only notify the home country and the
European Commission when it takes concrete measures. In our view, such practice would not
seem to be in accordance with the unambiguous wording in Art. 3 (4) of the E-Commerce
Directive.
b. The Draft Bill conflicts with several EU laws
The Draft Bill would also lead to overlapping and possibly conflicting obligations with binding EU
laws and proposed regulations, and make compliance with these laws impossible and/or
extremely burdensome from an operational standpoint.
In addition to the DSA, as developed in the next section, the Draft Bill would expressly conflict
with the requirements of the Terrorist Content Online Regulation (EU) 2021/784 (“TCO”) and the
Audiovisual Media Services Directive (EU) 2018/1808 (“AVMSD”). Specifically:
The TCO already requires hosting service providers to remove terrorist content or
remove access to terrorist content as soon as possible upon receipt of a removal order
11
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0135.png
from a competent Member State authority, and in any event within one hour of receipt of
the removal order. In addition, the TCO also contains specific requirements for content
preservation and provides a mechanism for content creators to appeal removed content
(TCO Articles 3, 6 and 10); and
The AVMSD already sets out extensive due diligence obligations for video-sharing
platforms aimed at limiting the spread of harmful content (AVMSD Article 28).
By introducing further, overlapping regulation in this space, the Danish government’s approach
risks further fragmenting the EU’s internal market, contrary to its obligations under the Treaty of
the European Union, Article 4, which requires that Member States facilitate the achievement of
the Union’s tasks and “refrain
from any measure which could jeopardise the attainment of the
Union’s objectives”.
4. The Draft Bill is inconsistent with DSA and will lead to major fragmentation in the
EU landscape
a. The Draft Bill will lead to major fragmentation in the EU landscape
The Draft Bill overlaps with the draft DSA, something that the preparatory works acknowledge,
noting that the national measures would be put in place “pending
the entry into force of the
DSA.”
However, in addition to the areas of overlap, there are also material divergences between
the obligations, as outlined below. Specifically, by trying to achieve broadly the same aims
through moderately different requirements, the Draft Bill creates an unnecessary regulatory
burden for service providers operating in Denmark, and leaves Danish consumers at risk of
having access to materially different online services than what will be available in the rest of
Europe under the DSA. This type of fragmentation is bad for both providers and consumers.
By setting up a similar, but yet different set of requirements in Denmark distinct from the EU
level regulatory discussion, it also creates an unreasonable and disproportionate resource
burden on service providers. As an illustration, the transparency obligations laid down in the
Draft Bill clearly overlap with the proposed DSA provisions. While we agree that transparency is
key to building trust and holding companies accountable for their behaviour, the transparency
reporting requirements impose very heavy product adaptations on companies. We have already
taken significant steps in this direction (see our
transparency center),
but we need time to be
able to build the necessary tools to meet the DSA requirements.
Indeed, the Draft Bill would create substantial legal uncertainty by fragmenting the EU wide
approach, especially as the DSA negotiations are approaching finalisation in the next months.
As stated in the preparatory work, the government has “welcomed the European Commission’s
proposal for a DSA” which clearly aligned with the Danish government’s ambitions. It seems
therefore disproportionate to create further legislation so close to the end of the European
negotiations.
Finally, in its assessment, the Danish government points at other countries having introduced
national rules obliging social media to take a more active role in fighting illegal content on their
12
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0136.png
platforms, notably ahead of the DSA. Yet, those national initiatives have been criticized by the
European Commission as well as by researchers with regards to the German NetzDG as
mentioned above. This inconsistency is likely to hamper the project of a harmonized set of EU
wide rules in the field. In commenting on the recent French Law Reinforcing Republican
Principles, the European Commission stated that “increasing
fragmentation poses a risk to the
single market for digital services and to Europe’s prosperity and makes it more difficult to ensure
that all Europeans benefit from a comparable level of effective protection online.”
The European
Commission further recalled that, “in
accordance with the general obligations laid down in Article
4(3) of the TEU (Treaty on European Union), Member States should postpone the
implementation of the contemplated measures when they concern a matter covered by a
legislative proposal, in order to avoid jeopardizing the adoption of binding acts in the same
field.”
These same concerns arise in relation to the Draft Bill.
b. The Draft Bill is both overlapping and inconsistent with the DSA
Compliance with the Draft Bill would be extremely challenging from an operational perspective
since service providers – which are already building compliance programs with an eye to the
DSA – would have to simultaneously develop compliance programs for overlapping but
contradictory requirements in the Draft Bill. This in turn would cause the Draft Bill to be less
effective in managing the concerns that it purports to address.
For example, one of the key areas of overlap is in relation to the reporting (or “notice and
action”); mechanisms and information (or “statement of reasons”); and requirements for
suspected illegal content. The Draft DSA contains a comprehensive notice and action
mechanism, requiring providers of hosting services to take “necessary measures to enable and
facilitate the submission of notices” of illegal content (Art. 14). The Draft DSA requires such to
enable and facilitate the submission of notices that contain sufficient information (including, e.g.,
an explanation of the suspected illegality of the content, and a clear indication of the electronic
location of the content (e.g., a URL)) to allow the provider to identify the content at-issue and
take appropriate action. The Draft DSA also requires providers of hosting services to provide
specific information to both reporters and content creators in relation to both reports and any
subsequent decisions. For example, providers must:
where a report (or “notice”) includes electronic contact information (e.g., email address)
for the reporter, without undue delay, send a confirmation of receipt. In addition, the
provider must also, without undue delay, notify the reporter of its decision with respect to
the suspected illegal content, and provide information on the possibilities for redress;
process any reports that they receive, and take their decisions in respect of such reports,
in a timely, diligent and objective manner; and
where they take action, provide content creators with a clear statement of reasons that
includes, amongst other things, the facts and circumstances relied on in taking the
decision (Art. 15).
13
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0137.png
As noted above, the DSA, as currently drafted, would also require hosting providers to maintain
an easily accessible and user-friendly internal complaint-handling (or “internal appeals”) system
for a period of at least six months after the decision has been taken (Art. 17).
Collectively, these provisions provide both users and other individuals and entities with a wide
range of appropriate tools to both report and seek redress in relation to allegedly illegal content.
In addition, the DSA includes extensive transparency requirements, such as the requirement for
intermediary service providers to include information in their terms and conditions on any
restrictions that they impose on the use of their service. This includes information on any
policies, procedures, measures and tools used for the purpose of moderating content, including
any algorithmic decision-making and human review (Art. 12).
All of these provisions track similar requirements in the Draft Bill in relation to reporting
mechanisms, information, internal appeals, and transparency requirements for providers.
However, in addition to unnecessarily overlapping with the DSA’s requirements in these areas,
the Draft Bill diverges from the DSA’s provisions in material and administratively costly ways.
These divergences include, for example:
The Draft Bill sets out strict time limits (e.g., 24 hours, 7 days, or 14 days) for providers
to review and make decisions on content. This risks standing in direct conflict with the
DSA, which, instead, requires notices to be provided and decisions to be made “without
undue delay”.
The Draft Bill’s requirement to respond to some types of reports within 24 hours goes far
beyond the DSA requirement to review and decide upon reports and, as explained
above, places an unworkable administrative burden on providers of all sizes and
sophistication.
The Draft Bill requires providers to conduct investigations into reports of illegal content in
a way that the DSA expressly restricts. In particular, the Draft Bill impliedly requires
providers (where it is necessary to make a decision on a report of illegal content) to
generally investigate the circumstances relevant to assessing the legality of the content
in question. We believe that providers should not simultaneously be required to play the
role of both investigator and judge, but it is also contrary to the draft DSA (as well as to
the E-Commerce Directive), which states that there should be no general obligation on
intermediary services providers to “actively seek facts or circumstances indicating illegal
activity” (Art. 7).
The Draft Bill’s requirement that hosting providers conduct an individualised legal
assessment of each report – and, where content requires further investigation, specify to
the reporter what it is about the content’s character that requires special investigation –
only further adds to the immense administrative burden that is not aligned with the DSA
14
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0138.png
and could not be realistically or fairly (for users) discharged within the prescribed
timeframes.
The transparency requirements in the DSA have the potential to conflict and/or materially
diverge from Article 15 and Article 45 of the Draft Bill, which set out the reporting
requirements. As the details of what will be included in such reporting requirements will
be determined at a later date by the Ministers of Justice and Information, there is a high
risk that the reporting requirements will not be consistent, and hosting providers will be
required to set up expensive reporting and compliance regimes that may soon be
obsolete. For reasons of efficiency and effectiveness, and to ensure the harmonising
purpose of the DSA is not defeated, transparency obligations must be aligned within the
EU.
More generally, the introduction of the Draft Bill, despite the advanced state of the draft DSA,
undermines the DSA’s core harmonising purpose. While the Draft Bill indicates that at least
some of its elements will cease to apply to the extent that they are inconsistent with the DSA,
what this means in practice is vague, and creates uncertainty. In accordance with EU law, once
the DSA is adopted, incompatible laws or provisions of those laws can no longer have effect.
The Draft Bill, if passed, should specifically indicate each and every element that will cease to
apply once the DSA is adopted.
CONCLUSION
To conclude, we want to re-iterate Meta’s support of the Danish government’s goal of
having illegal content effectively and quickly removed from online platforms. As we have
outlined in this submission, Meta is already working hard to achieve this goal using industry
leading technology, extensive reporting systems and regular transparency reports. However,
Meta is concerned that this Draft Bill will fail to meet the Danish government’s objectives as the
Draft Bill overlooks the technical and operational realities of dealing with reports of illegal
content at scale, and sets extremely burdensome deadlines for service providers to take action
and respond to such reports; and the Draft Bill is inconsistent with the European Union’s current
work on the Digital Services Act and Meta is of the opinion that the Draft Bill is incompatible with
existing EU law (i.e., the e-Commerce Directive).
15
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0139.png
Til:
Konkurrence- og Forbrugerstyrelsen
Carl Jacobsens Vej 35
2500 Valby
Tlf. +45 4171 5000
København, 21. januar 2022
Bemærkninger til forslag til lov om regulering af sociale medier
Konkurrence- og Forbrugerstyrelsen har anmodet om eventuelle bemærkninger til lovforslag om regulering
af sociale medier. Red Barnet har med stor interesse læst lovforslaget og har følgende bemærkninger:
Overordnede bemærkninger
Red Barnet mener, at der er et stort behov for lovgivning, der regulerer sociale medier og andre digitale
tjenester, og vi hilser lovforslaget velkomment som et skridt i retning mod mere børnesikre sociale medier.
Det er væsentligt for børns sikkerhed og tryghed, at de har ret til at få ulovligt og krænkende materiale
fjernet fra sociale medier og andre digitale tjenester hurtigt og nemt. Samtidig er det væsentligt, at ansvaret
for fjernelse af ulovligt indhold påhviler de digitale tjenester og ikke barnet selv. Red Barnet bakker derfor
op om lovforslagets sigte mod at præcisere de digitale tjenesters ansvar ift. at fjerne ulovligt indhold og ift.
at gøre processen med at anmelde ulovligt materiale brugervenlig.
Red Barnet vurderer, at lovforslaget, såfremt det vedtages, vil styrke børns rettigheder online ift. at få bedre
hjælp til at fjerne ulovligt og krænkende indhold, samt bedre beskyttelse mod at blive eksponeret for ulovligt
indhold på de digitale tjenester, hvor børn og unge i høj grad færdes. Desuden giver man brugerne bedre
muligheder for at klage over langsom eller manglende fjernelse af ulovligt indhold.
Behov for, at lovforslaget udbredes til at gælde mindre og flere typer af platforme
Lovforslaget finder anvendelse for platforme med 100.000 eller flere brugere. Vi forholder os undrende til,
at platforme, som drives af virksomheder, der har 50 medarbejdere og en omsætning på op til 10 mio. EUR,
bliver betragtet som platforme, der er for små til at skulle omfattes af loven.
Red Barnet bakker op om, at man med lovforslaget begynder at stille krav til, hvordan digitale tjenester skal
regulere ulovligt indhold på deres platforme, da vi i vores rådgivningstjeneste
SletDet Rådgivningen
i meget
høj grad ser et behov herfor. Der er dog også behov for, at lovforslaget udbredes til at gælde mindre plat-
forme samt til flere typer af digitale platforme.
Red Barnet
Rosenørns Allé 12
1634 København V
Telefon 35 36 55 55
[email protected]
www.redbarnet.dk
Red Barnet
– altid på børnenes side
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0140.png
I Red Barnets rådgivningstjeneste
SletDet Rådgivningen,
som hjælper børn og unge, der har oplevet digi-
tale krænkelser, erfarer vi ofte, at indhold, der er blevet spredt på én digital platform, hurtigt også spredes
på en eller flere andre digitale platforme. Digitale platforme kan altså ikke i praksis betragtes som ’isolerede
rum’, hvor spredning af ulovligt indhold er begrænset til potentielt kun at nå det antal brugere, som den
pågældende platform har. Hvis mindre platforme ikke er forpligtet til at regulere ulovligt indhold i samme
omfang som større platforme, så har ulovligt indhold, som starter med at blive spredt på en mindre platform,
et ubegrænset potentiale for at blive spredt, indtil det bliver anmeldt på en større platform.
Vi mener derfor, at jo større udbredelse loven får desto bedre for børns trivsel og sundhed. Vi vil derfor
gerne opfordre til, at man revurderer de grænser på platformenes størrelse, der er sat for lovens anven-
delse, således at også mindre platforme inkluderes.
Lovforslaget bør også gælde platforme, hvor kommunikation mellem brugere ikke er det primære
formål
Vi mener, at hvis man stiller kommunikationsmuligheder til rådighed på sin platform, også selvom kommu-
nikationen ikke er det primære formål, så bør man også have ansvaret for, at den kommunikation, der
foregår på platformen, er ordentlig og ikke misbruges til at sprede ulovligt indhold.
På vores hotline AnmeldDet, som er en anmeldetjeneste til borgere, som er stødt på seksuelt overgrebs-
materiale med børn på nettet, modtager vi mange anmeldelser af ulovligt indhold på andre typer digitale
platforme, end dem, som lovforslaget finder anvendelse på, men hvor det at kunne oprette en profil, dele
indhold og interagere med andre brugere er en mulighed. Det gælder fx anmeldelser af pornosider, herun-
der profiler med problematiske profilbilleder eller profiltekster, og/eller videodelingstjenester som fx You-
Tube.
Hvis lovforslagets krav til regulering vurderes at være for ressourcekrævende en opgave at stille til nuvæ-
rende digitale tjenester, hvis platforme ikke har kommunikation mellem brugere som primært formål, fore-
slår Red Barnet, at det imødekommes ved at tillade længere implementeringsperiode overfor disse digitale
tjenester.
Behov for regulering af indhold i private chatsamtaler
Red Barnet anerkender, at lovforslaget ikke har til hensigt at regulere ulovligt indhold i private samtaler på
digitale platforme. Dog vil vi gerne gøre opmærksom på, at der er et enormt problem med høj grad af
spredning af ulovligt indhold via private samtaler på digitale platforme, fx i chatsamtaler. Et aktuelt kendt
dansk eksempel er den mor, hvis datter blev myrdet af Islamisk Stat, og som fortsat oplever at få tilsendt
videoen af mordet på sin datter via chatsamtaler og det flere år efter, at videoen oprindeligt blev spredt.
I SletDet Rådgivningen erfarer vi desuden ofte, at de børn, som oplever, at ulovligt indhold bliver delt om
dem via chatsamtaler, ikke selv har adgang til at anmelde indholdet til platformen, fordi de ikke selv er med
i de samtaler, hvor delingen foregår. Vi mener således, at der er et hul ift. hvordan lovforslaget forbedrer
brugernes adgang til at kunne anmelde ulovligt indhold på platformene.
Platformene bør tage ansvar for at fjernet materiale forbliver væk fra platformene
Red Barnet vil gerne henlede opmærksomheden på det enorme problem, at kendt ulovligt materiale gen-
oploades og lægges ud på forskellige platforme. Børn har ret til, at krænkende billeder og videoer af dem
2/4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0141.png
ikke spredes. Der bør i loven eller bemærkningerne lægges vægt på platformens ansvar for at udvikle
metoder til, at fjernet materiale forbliver væk fra platformene (det såkaldte ”notice and stay down”-princip).
Det vil i sidste ende medføre, at man på den enkelte platform kan garantere, at fjernet ulovligt materiale
ikke genoploades på samme platform. Der bør desuden også stilles krav til, at platformene samarbejder
med hinanden for at forhindre spredning mellem platforme, således, at hvis materiale fjernes fra én plat-
form, så kan det ikke lægges op på en anden.
Behov for tidsfrist for sagsbehandlingstiden hos både platformene og myndighed
Lovforslaget sætter generelt klare rammer for, hvor hurtigt platformene skal fjerne eller tage stilling til an-
meldt indhold. Der er ikke på samme vis sat frister for sagsbehandlingstiden i Konkurrence- og Forbruger-
styrelsen (myndighed). Der er behov for, at der er frister for begge parter, da det er hastigheden af sags-
behandling begge steder, der sikrer brugeren.
Behov for mulighed for at anmelde ulovligt indhold på dansk samt for dansksprogede moderatorer
Det er positivt, at fx SletDet Rådgivningen kan klage til Konkurrence- og Forbrugerstyrelsen over mang-
lende fjernelse af materiale.
Red Barnet mener desuden, at brugeren bør kunne anmelde på dansk, hvilket ville øge brugervenligheden
i høj grad. Det er vigtigt, at de platforme, der allerede har dansksprogede anmeldefunktioner, bliver ved
med det og udbygger det, og at de, der ikke har det, sørger for at oversætte deres anmeldefunktioner.
Loven stiller ikke krav til lokalsprog hos moderatorer. Det gør det svært for brugerne at beskrive kontekst
for det ulovlige indhold, hvis der ikke er moderatorer, der forstår dansk kontekst og sprog. Red Barnet
kender fx til, at brugere i grupper på digitale platforme, der dyrker selvskade, lykkes med at omgå regule-
ringsfiltre af deres indhold om selvskade ved at dele billeder af fx hundehvalpe, men hvor billedteksten
beskriver selvskade. Selvom opslaget bliver anmeldt, bliver det ikke fjernet, da billedet er harmløst.
Behov for at anmeldt materiale blokeres eller fjernes i sagsbehandlingstiden
Red Barnet opfordrer kraftigt til, at det anmeldte materiale ikke skal være synligt i platformens behandlings-
tid. De 24 timer til 7 dage, hvor materialet er under behandling, er i forvejen meget skadeligt for børn og
unge, hvis indholdet er ulovligt og krænkende. Behandlingstiden bør tilstræbes at være så kort som muligt.
En væsentlig fordel ved lovforslaget er, at det potentielt kan dæmme op for videredeling af ulovligt materi-
ale. Hvis anmeldt materiale fjernes eller blokeres i sagsbehandlingstiden, vil man i høj grad kunne forhindre
videredeling og spredning. Omvendt er fx syv dage meget lang tid for ulovligt materiale at ligge frit tilgæn-
geligt, og der vil være alt for stor risiko for videredeling. Som lovforslaget ser ud nu, tager man hensyn til,
at en bruger ikke skal kunne chikaneres ved, at harmløst materiale anmeldes. Det er forståeligt, at man
ønsker at tage det hensyn, men vi mener, at det vejer tungere, at ulovligt materiale kan være endog meget
skadeligt, så længe det er synligt, og derfor bør den evt. krænkede parts helbred veje tungere. Endelig kan
en regel om, at anmeldt materiale straks fjernes uden at afvente behandlingen muligvis gøre det mere
attraktivt for platformen med en hurtig sagsbehandling.
Behov for nuancer i afvisning af automatisk genererede anmeldelser
Vi anerkender risikoen for, at platformenes anmeldefunktioner kan misbruges af automatiserede bot’s, og
at platformene potentielt kan blive udsat for spam af anmeldelser, som ikke bør tages alvorligt. Vi vil her
gøre opmærksom på, at vi i vores anmeldetjeneste benytter et IT-system, som automatisk kan overvåge,
om indhold, som vi har anmeldt til en digital platform, stadig er tilgængeligt på platformen, og i så fald
3/4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0142.png
automatisk sender en notifikation til platformen om at fjerne det ulovlige indhold. Vi er ikke den eneste
hotline, der bruger denne løsning. Det er væsentligt, at den type henvendelser ikke falder ind under kate-
gorien ”automatisk genereret anmeldelse” og derfor ikke bliver behandlet hos platformene.
Øvrige bemærkninger
Vi opfordrer til at tage termen ’børneporno’ ud af teksten i lovforslaget og i stedet anvende termerne:
over-
grebsbilleder af
børn,
overgrebsmateriale med børn
eller dokumenterede
seksuelle
over-
greb mod børn. Termen børneporno anvendes ofte i strafferetslig sammenhæng, men ordet optræder ikke
i straffeloven. Når vi omtaler dokumenterede seksuelle overgreb mod børn som pornografi, kan der i ordets
betydning ligge en forståelse af, at de medvirkende har sagt ja til at blive fotograferet eller filmet. Men børn
kan ikke give samtykke til sex. Sex med et barn er et seksuelt overgreb, og at overgrebet er fotograferet el-
ler filmet, gør det ikke til pornografi.
Med venlig hilsen
Janne Tynell
Stedfortrædende generalsekretær
Red Barnet
4/4
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0143.png
Trustpilot kommentarer til
Forslag til Lov om regulering af sociale medier
Vi vil indledningsvis gerne sige tak for muligheden for at kommentere på lovforslaget.
Vi er enige i den foreslåede tilgang, hvor man tager hensyn til forskellige typer af platforme ved
vurderingen af, hvad der udgør ulovligt indhold.
Danmarks forslag til lov om sociale medier afspejler dets formål: Det retter sig mod de
platforme, der udgør den største risiko for at sprede ulovligt indhold bredt og hurtigt. Samtidig
fremgår det også tydeligt af lovforslaget, hvilke platforme der ikke er omfattet af lovforslaget,
hvilket er vigtigt, så der ikke er tvivl om dette efterfølgende. Dette skaber samtidig klarhed for
de platforme, som lovforslaget ikke har til hensigt at ramme, men som ville blive omfattet af
lovforslaget, hvis det ikke tydeligt fremgik, hvem der var undtaget.
Det fremgår specifikt af lovforslagets §2 stk. 6.4, at “tjenester, der primært er beregnet til
anmeldelse af varer eller tjenesteydelser” ikke er omfattet af loven. Anmeldelsesplatforme
beskæftiger sig primært med brugeranmeldelser af køb- og/eller serviceoplevelser. Efter vores
opfattelse afspejler udelukkelsen af anmeldelsesplatforme fra lovforslagets anvendelsesområde
tydeligt, at disse platforme udgør en lav risiko, når det kommer til spredning af ulovligt indhold.
Anmeldelsesplatforme er forskellige fra, og bør holdes adskilt fra, andre typer platforme, såsom
sociale medier.
Vi er således glade for at se, at lovforslaget tydeligt skelner mellem anmeldelsesplatforme og
sociale medier i §2 stk. 6.4. Vi mener derfor, at denne sondring bør bevares i den endelige
lovgivning.
Hvem er vi?
Trustpilot er en uafhængig anmeldelsesplatform med hovedsæde i København, der binder
forbrugere sammen med virksomheder og muliggør samarbejde imellem dem.
Trustpilot er gratis for forbrugere og giver dem et sted, hvor de kan skrive og læse anmeldelser
af virksomheder, for at hjælpe andre brugere med at træffe bedre og mere informerede valg.
Ved at dele deres anmeldelser og feedback hjælper vores brugere med at fremme tillid og
gennemsigtighed.
Vi tilbyder også tjenester til virksomheder, der gør det muligt for dem at invitere deres kunder til
at skrive anmeldelser om dem på Trustpilot med henblik på at øge deres troværdighed og
omdømme. Vi driver en 'freemium'-forretningsmodel for virksomheder, som giver dem mulighed
for at bruge vores grundlæggende tjenester (herunder muligheden for at invitere kunder og
svare på anmelder) gratis og modtage udvidede tjenester såsom analyser, marketing-widgets
og integrationer til sociale medier mod betaling.
www.trustpilot.com
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0144.png
Siden vi startede i Danmark i 2007 er Trustpilot vokset til en global virksomhed med kontorer på
tværs af otte lokationer – herunder tre i EU. Der er blevet skrevet mere end 144 millioner
anmeldelser på vores side, og antallet af anmeldelser på Trustpilot vokser med mere end én
anmeldelse i sekundet.
Kontakt
Mandy Chilcott
Head of Policy & Public Affairs, Trustpilot
[email protected]
+45 2158 8589
www.trustpilot.com
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Konkurrence- og Forbrugerstyrelsen
Att.: Louise Cifuentes og
Susanne Aamand
København, 18. januar 2022
Vedr.: Trykkefrihedsselskabets bemærkninger til lovforslag om regulering af sociale medier
Selvom ingen kan være imod lovforslagets formål (”…at
fremme beskyttelsen mod ulovligt indhold
og øge gennemsigtigheden om indholdsmoderation på kommunikationsplatforme,
gruppebeskedtjenester, datingtjenester, og spil- eller gamingtjenester.”, jf. lovforslagets § 1), så
lider det efter Trykkefrihedsselskabets opfattelse af to grundlæggende mangler:
For det første vil man med lovforslaget uundgåeligt gøre indhug i ytringsfriheden i bestræbelserne
på at forhindre ulovligt indhold på de sociale medier.
For det andet sætter man med lovforslaget kikkerten for det blinde øje og ignorerer det virkelige
problem: at sociale medier – ikke mindst Facebook – er blevet så store og har så afgørende
betydning som informations- og kommunikationsplatforme, at de har fået monopollignende status
og derfor har opnået en statslignende magt over ytringsfriheden i Danmark. Bigtech-censuren, der
ofte er arbitrær og politisk motiveret, udgør et langt større problem end problemerne med ulovligt
indhold.
Ad lovforslagets begrænsninger i ytringsfriheden
Det er et centralt omdrejningspunkt i lovforslaget (kap. 2), at pålægge tjenesteudbyderen hurtig
vurdering af klager og indgriben over for ”ulovligt indhold”, hvilket i udgangspunktet er forståeligt
af hensyn til evt. ofre for det ulovlige indhold, som i DRs eksempel med Helle Vesterager Jeppesen.
Problemet med fristerne og kravene til udbyderne som formuleret i forslagets kap. 2 er, at
konsekvensen meget hurtigt bliver en skærpelse af de sociale mediers i forvejen tiltagende
censurering af brugerne og dermed indskrænkning af ytringsfriheden på sociale medier. Denne
indskrænkning vil i vidt omfang også komme til at ramme lovligt indhold, fordi lovforslaget lægger
op til meget korte frister (24 timer) fra tjenesteudbyderen modtager en klage over indhold til klagen
skal være færdigbehandlet.
Desuden lægger lovforslaget op til bødestraffe mod sociale medier, der ikke reagerer hurtigt nok
mod påstået ulovligt indhold. Det fremgår således af lovforslagets § 5, stk. 1, at
”Tjenesteudbyderen
skal efter modtagelse af en anmeldelse… træffe afgørelse om at fjerne, blokere, eller fastholde det
anmeldte indhold på baggrund af en vurdering af, om der er tale om ulovligt indhold”,
og i stk. 3
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
hedder det videre, at anmelderen senest 24 timer efter modtagelsen af anmeldelsen skal modtage
oplysning om,
”hvorfor indholdet kræver nærmere undersøgelse”,
hvis indholdet ikke med det
samme bliver fjernet.
24 timer vil i mange tvivlstilfælde, som ikke omfatter oplagt fjernelse af halshugningsvideoer o.
lign., være helt urimeligt kortere tid end retsstatens institutioner selv bruger på bedømmelse af
ulovligt indhold og i praksis vil det uundgåeligt medføre, at tjenesteudbydere for en sikkerheds
skyld censurerer indhold, også hvor anmeldelsen om ”ulovligt indhold” måtte være helt uberettiget
og politisk motiveret. Dette alene for at det sociale medie kan være på den sikre side i forhold til
straffende myndigheder.
Fristen kan ganske vist i undtagelsestilfælde forlænges i op til 14 dage, men i praksis vil
lovforslaget indebære en skærpet censur på sociale medier, ikke blot af direkte ulovligt indhold,
men også af fuldt lovlige og demokratiske ytringer, som politiske modstandere kan anmelde for at
falde ind under uklare og subjektive kategorier som ”krænkende ytringer” eller ”hadefuld tale”.
Dermed bliver lovforslagets hele formål, at
”… øge gennemsigtigheden om indholdsmoderation”
på sociale medier i realiteten det stik modsatte i det omfang lovforslaget ikke også indeholder
konkrete tiltag til at beskytte borgerne mod techgiganternes (politiske) censur af lovlige ytringer.
Ganske vist skal tjenesteudbyderen efter lovforslagets § 7;
”… oprette en procedure for
efterprøvelse af sine afgørelser”,
men bestemmelserne er vage og ukonkrete og derfor lette at omgå.
Det er et stort demokratisk problem og et markant tilbageskridt for ytringsfriheden.
Ad fraværet af regulering af de sociale mediers/tech-giganternes censurering af lovligt
indhold
Selvom Trykkefrihedsselskabet til fulde anerkender behovet for hurtigt at kunne fjerne
ulovligt
indhold, der lægges på de sociale medier, så er vi på en gang bekymrede og overraskede over, at
regeringen ikke finder anledning til at sikre borgernes ytringsfrihed, når det gælder censurering af
lovligt
indhold på de sociale medier.
Det er ubestridt, at sociale medier er private selskaber med deraf følgende ret til selv at regulere
indholdet på egne platforme. Problemet er bare, at flere sociale medier i dag har opnået en størrelse,
så de reelt må siges at have en art nyheds- og kommunikationsmonopol. Således er mere end 75%
af danskerne i dag på Facebook, hvorfra de henter en væsentlig del af deres nyheder og
kommunikation. Det giver reelt Facebook (og andre med dem) en slags statslignende magt over
ytringsfriheden. En magt, som regeringen enten underkender eller ignorerer, men som nærværende
lovforslag burde have adresseret.
Det er derfor et langt større problem, at sociale medier som Facebook, YouTube og Twitter i
stigende omfang udøver censur af
lovlige
ytringer ud fra lidet gennemsigtige og tilsyneladende
arbitrære kriterier, der meget ofte synes politisk motiveret.
: "Derfor
er techgiganternes voksende,
vilkårlige og politisk motiverede censur af borgernes OG MEDIERS ytringer på sociale medier et
demokratisk problem."
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Som eksempel kan nævnes netavisen 24NYT, som Facebook i 2019 fjernede fra dets platform. Det
har gjort det stort set umuligt at opretholde en indkomst for mediet.
Desværre indeholder lovforslaget ingen konkrete forslag til beskyttelse af borgernes ytringsfrihed
og imødegåelse af det demokratiske problem, som udgøres af en voksende, vilkårlig og politisk
motiveret bigtechcensur af borgernes demokratiske og lovlige ytringer på sociale medier.
Det er som sagt stærkt bekymrende, for det viser, at regeringen med nærværende lovforslag sætter
kikkerten for det blinde øje og negligerer det virkelige problem. Så meget endda, at lovens
udarbejdelse og gennemførelse alene er henlagt til Konkurrence-og Forbrugerstyrelsen og dermed
til Erhvervsministeriet. Hermed gør Regeringen de facto den demokratiske debat om
frihedsrettigheder og regulering af ytringsfrihed på de sociale medier til et spørgsmål om
erhvervsregulering.
I Danmark og i udlandet er der brug for en effektiv antitrustlovgivning til opbrydning af
techgiganternes monopolstilling og for at tvinge dem til respekt for ytringsfriheden.
Folketingets politikere burde ved lovindgreb og regulering i dansk sammenhæng sikre fuld
ytringsfrihed for alle lovlige ytringer på sociale medier. Trykkefrihedsselskabet foreslår derfor
denne formulering som tilføjelse til formålsbestemmelsen i lovforslagets § 1:
”Loven om regulering af sociale medier bygger på princippet om borgernes fuldstændige
ytringsfrihed for lovlige og demokratiske ytringer under ansvar for domstolene.
Det er ikke sociale mediers opgave med censur og indholdsmoderation at beskytte enkeltpersoner
eller grupper mod synspunkter, idéer eller meninger, som personer eller grupper måtte være uenige
i eller endda måtte finde krænkende. Sociale medier bærer et ansvar for at fremme en fri og frygtløs
debat og for at beskytte denne ytringsfrihed, når andre forsøger at begrænse den.
Dårlige idéer på sociale medier skal imødegås gennem fri debat og åben diskussion og ikke gennem
censur. Således skal sociale medier tage konkrete skridt for at sikre overholdelsen af Grundlovens §
77: ’Enhver
er berettiget til på tryk, i skrift og tale at offentliggøre sine tanker, dog under ansvar
for domstolene. Censur og andre forebyggende forholdsregler kan ingensinde påny indføres’.
Bestemmelser i Loven om regulering af sociale medier til forhindring af ulovligt indhold kan og bør
ikke misbruges til politisk censur mod anderledes tænkende og uklare begreber som ”hadefuld
tale” eller subjektive følelser af at være blevet krænket over anderledes synspunkter på sociale
medier kan på ingen måde retfærdiggøre censur på sociale medier.”
Forhåbentlig vil man en gang i fremtiden se tilbage på regeringens lovforslag til regulering af
sociale medier af januar 2022 og undre sig over, hvorfor den i Danmark tillod techgiganternes
censurmagt over den demokratiske offentligheds vigtigste infrastruktur.
På Trykkefrihedsselskabets vegne
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Aia Fog
formand
Michael Pihl
næstformand
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Høringssvar til udkast til forslag til Lov om regulering af
sociale medier
https://hoeringsportalen.dk/Hearing/Details/65936
Min baggrund for dette hørringsforslag er som Ph.d. i
Informationssystemer og som tidligere forsker ved AAU og DTU i
blandt andet hackerkultur, offentligt IT og brugen af denne type
platforme som er nævnt i lovforslaget.
Min anden baggrund er som politisk aktivist i bevarelsen af vores
grundlovssikrede ytringsfrihed og retssikkerhed, hvor jeg også har
været aktiv i den offentlige debat.
Jeg anser derfor mig selv som en storforbruger af den
grundlovssikrede ytringsfrihed og har derfor også en åbenlys
interesse i dens bevarelse.
Derfor finder jeg det ekstremt skræmmende, at ytringsfrihed er
således kun nævnt en enkelt gang i hele lovforslaget (og ikke i et
positivt lys) og ingen steder i selve lovteksten, hvilket tydeligt viser
der er meget begrænset fokus på bevarelse af ytringsfriheden i
lovforslaget.
Som udgangspunkt mener jeg derfor, at dette lovforslag i sin
nuværende udformning er en hån mod den grundlovssikrede
ytringsfrihed og borgernes retssikkerhed. Lovforslaget er derved en
direkte trussel imod den demokratiske deltagelse i samfundet.
Mine kommentarer til lovforslaget er derfor følgende:
Lovforslaget overtræder Grundlovens §77 og EMK Artikel 6
Grundlovens §77 siger følgende:
§ 77 Enhver er berettiget til på tryk, i skrift og tale at offentliggøre
sine tanker, dog under ansvar for domstolene. Censur og andre
forebyggende forholdsregler kan ingensinde påny indføres.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Når jeg læser dette lovforslag, ser jeg det som en direkte
overtrædelse af domstolsprøvningen, der er indlagt i Grundlovens
§77. Hertil bemærker jeg især at ”Ulovligt indhold” er defineret som
”Enhver form for indhold, som er i strid med den til enhver tid
gældende ret”.
Den definition er ekstremt bred og betyder helt konkret at f.eks.
sociale medier bliver pålagt at fjerne indhold, uden der på forhånd
har været domsprøvning. Det mener jeg er en klar overtrædelse af
Grundloven og retssikkerheden som er indlagt i både Grundlovens §3
og §71 og EMK Artikel 6. Det vil derfor være oplagt at føre en sag
imod den danske stat på baggrund af sletninger foretaget af
lovforslaget, da sletningerne bliver foretaget på foranledning af den
danske stat.
Eksempler på ytringer hvor domstolsprøvningen er vigtig er f.eks. de
ytringer som kan anset for at være injurier eller baseret på
straffelovens 119a eller 266b, hvor fortolkningen af ytringen gør sig
gældende. Her kan borgerne risikere at på forhånd blive dømt af
tjenesteudbyderen, uden der på forhånd har været
domstolsprøvning og uden at domstolene ville kende dem skyldige.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0151.png
Derudover kan brugen af f.eks. ophavsretten være særligt
problematisk, da man uden problemer vil kunne argumentere for at
en person videregiver ophavsretsbeskyttet indhold. Herover er f.eks.
et billede fra Statsminister Mette Frederiksens Instagramprofil, hvor
et stillbillede fra en landskamp indgår. Det stillbillede er
ophavsbeskyttet indhold. Hvis lovforslaget blev indført i sin
nuværende form, ville enhver under lovens §4 kunne indgive en
sådan anmeldelse om overtrædelse af ophavsretten til
tjenesteudbyderen og en udenlandsk tjenesteudbyder, som f.eks.
Meta, der ikke har nogen kompetencer dansk retspraksis og som kan
blive pålagt påbud og bødestraf (jf. lovforslagets kapitel 7 og 8), skal
så tage stilling til om Mette Frederiksens foto er en overtrædelse af
dansk ophavsret.
Dette er helt åbenlyst problematisk for borgerens retssikkerhed og vi
vil opleve med dette lovforslag, at tjenesteudbyderne vil fjeren lovligt
indhold, bare for at være på den sikre side.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Jeg ser derfor lovforslaget som en ren censurlov og jeg frygter i høj
grad den kommer til at have en forebyggende effekt på hvad
borgerne tør sige i offentligheden. Lovforslaget vil tydeligt have en
forebyggende effekt, som især kan ramme de helt lovlige ytringer,
som er nødvendige for at et velfungerende demokrati kan eksistere.
Derved overtræder lovforslaget også den sidste del i Grundlovens
§77, som netop omhandler det generelle forbud mod censur og
andre forebyggende forholdsregler, da lovforslaget er forebyggende
forholdsregler med henblik på at udøve bred censur i befolkningen.
Ingen beskyttelse af lovlige ytringer
Jeg bemærker også at der i høj grad mangler beskyttelse i loven for
lovlige ytringer. Da dette heller ikke defineret i lovteksten. Dvs. lovligt
indhold som ikke er i strid med gældende dansk lov.
Der er således tydelig beskyttelse imod ulovligt indhold og hurtige og
effektive processer til at få disse fjernet, samt muligheder for
sanktioner imod de tjenesteudbydere, der ikke fjerner ulovligt
indhold på deres platforme.
Der er derimod en komplet mangel for beskyttelse af lovligt indhold i
dette lovforslag og ingen sanktionsmuligheder mod
tjenesteudbyderne som udøver grov censur mod deres brugere,
f.eks. for at blande sig folketingsvalg, den offentlige diskurs, osv.
Jeg frygter derfor at tjenesteudbyderne, på baggrund af denne lov, vil
udøve bred censur mod borgerne, bare at være sikker på ikke at
overtræde loven, samtidigt med at loven indirekte giver
tjenesteudbyderne en blank check til at udøve deres egen private
censur mod de ytringer de ikke selv ønsker. Dette ses tydeligt i
vejledningen til lovforslaget (dette eneste sted hvor ytringsfrihed er
nævnt), hvor en tjenesteudbyder kan tage fejl med en sletning og så
alligevel få medhold i en klagesag, hvis tjenesteudbyderen selv
vurderer at ytringen overtræder tjenesteudbyderens
”egne
retningslinjer”.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Jeg frygter også at visse borgere vil udnytte loven til at udøve censur
på andre borgere, f.eks. uhjemlede anmeldelser af en politisk
modparts ytringer. Her sætter man tjenesteudbyderne i en virkelig
ubehagelig situation, hvor de f.eks. kan ende med at blive
domsmænd mellem to uenige folketingspolitikere, der slynger
injurier efter hinanden (f.eks. da Mimi Jakobsen kaldte Rasmus
Paludan en nazist og omvendt, hvorfra de modtog en dom for injurier
for).
Min største bekymring er dog at der Kapitel 2 af lovforslaget
omhandlende efterprøvelse, ikke er nogen effektiv beskyttelse imod
at få fjernet helt lovlige ytringer. Således kan en borger risikere at få
groft krænket sin grundlovssikret ytringsfrihed, ved at skal bruge
måneder på at få sin klage om en lovlig ytring først gennem
tjenesteudbyderen og derefter Konkurrence- og Forbrugerstyrelsen,
da der ikke er indlagt nogen tidsgrænser for effektiv efterprøvning.
Denne langsomme klagegang er dybt problematisk og vil være
direkte skadelig for den demokratiske deltagelse.
Derudover er der ikke indlagt nogen kompensationsordning for
borgere som får fjernet lovligt indhold. Dette betyder helt konkret at
tjenesteudbyderne ikke har noget incitament til at beskytte lovligt
indhold og vil med al sandsynlighed slette med bred kam, ligesom det
er set med den tyske NetzDG-lov.
Hertil er Erhvervsministeriets vurdering (side 32) om beskyttelse af
ytringsfriheden ikke særligt meget værd. Enhver som har indsendt en
klage på noget tidspunkt i deres liv ved udmærket godt, at de meget
sjældent får medhold i første instans. Hverken myndigheder eller
private virksomheder har nogen interesse i at irettesætte sig selv,
hvilket tydeligt ses indenfor forvaltningsretten, hvor et nærmest er
umuligt at få medhold, selv i sager hvor det er helt åbenlyst at
forvaltningsloven er blevet brudt (forvaltningerne satser simpelthen
på at trække sagerne ud eller at FOM ikke vil behandle dem). Sagerne
ender derfor i langvarige klageprocesser og senere retssystemet,
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
hvor det ofte tager år at få en afgørelse.
Hertil åbner Erhvervsministeriets også op for at
tjenesteudbyderen
bare kan udøve censur mod borgerne, selvom indholdet er lovligt.
Det står f.eks. i lovforslaget:
”Ligeledes
har en bruger ikke ret til at få genoprettet sit indhold, hvis
tjenesteudbyderen efter efterprøvelsesproceduren træffer afgørelse
om, at indholdet alligevel ikke vurderes ulovligt og derfor ikke skulle
have været blokeret eller fjernet i henhold til denne lov, da
tjenesteudbyderen stadig har mulighed for at fjerne eller blokere
indholdet efter dennes egne retningslinjer. Det f.eks. være tilfældet,
hvor tjenesteudbyderen ikke mener, at indholdet er ulovligt, men at
det er krænkende.”
Hvordan er dette lige en sikring af ytringsfriheden, når en privat
tjenesteudbyder helt frit kan fjerne hvilket som helst indhold, de selv
finder ”krænkende” fra borgerne?
Det betyder også at i en hver anfægtelse af nedtagning af lovligt
indhold kan tjenesteudbyderen blot sige at indholdet krænker deres
retningslinjer og derved fastholde indgrebet, hvorefter Konkurrence-
og Forbrugerstyrelsen med al sandsynlighed vil tjenesteudbyderen
medhold, da lovforslaget giver hjemmel til at tjenesteudbyderen kan
slette ud fra egen retningslinjer.
Så der er kort sagt ingen retssikkerhed i lovforslaget for borgere, der
oplever at få slettet lovligt indhold. De borgere bliver klassificeret
som retsløse og Grundlovens §77 bliver sat ud af spil, da censur og
forbyggende forholdsregler på ny er gennemført, ved at regeringen
har udliciteret det til private virksomheder.
Dette indgreb i den personlige frihed til at kunne ytre sig frit er derfor
dybt problematisk for opretholdelsen af vores demokrati og en
direkte hån mod retssikkerheden.
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
Der er behov for regulering af de sociale medier, men for at
beskytte ytringsfriheden
De sociale medier skal reguleres, men det skal gøres for at beskytte
borgerens grundlovssikrede ytringsfrihed, retssikkerheden og den
demokratiske deltagelse.
Dette sker ikke ved at man indfører love der fjerner indhold, med ved
at man indfører love som beskytter indhold.
Det er helt tydeligt at f.eks. Facebook og Twitter har en kæmpe magt
i forhold til den offentlige diskurs. Så det bør gøres helt tydelig at det
er borgerne og ikke private virksomheder, som skal have kontrol med
hvad der bliver sagt i vores samfund.
Denne lov er i den milde fortolkning fejlagtig i sin nuværende form og
i den hårde fortolkning et direkte angreb mod ytringsfriheden og
demokratiet. Folketinget bør derfor gøre sig nogle seriøse
overvejelser om man virkelig ønsker at blive en nordisk bananstat,
hvor ytringsfrihed og retssikkerhed ikke længere gør sig gældende.
Jeg forslår derfor at Folketinget laver følgende ændringer til
lovforslaget:
Lovforslaget bør være meget mere præcis i hvilke typer
indhold man ønsker at fjerne. Jeg mener ikke at lovforslaget
bør gælde for Straffelovens §266b, §119a eller andestedt i
dansk lov, hvor der skal foretages en subjektiv vurdering af
meningstilkendegivelsen i ytringen. Der bør være klar fokus
på lovforslaget gælder grove straffelovsovertrædelser som
distribution af børneporno, videoer af vold og drab, osv.
Ophavsretsloven bør helt undtages fra at kunne omfattes af
lovforslaget, så ophavsretsloven ikke benyttes til at fjerne
f.eks. lovligt politisk indhold eller andre typer
meningstilkendegivelser (f.eks. memes eller typer digitale
remixes, hvor ophavsretsbeskyttet indhold kan indgå).
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0156.png
Meningsytringer bør udtages af lovforslaget. Det domstolene
som bedømmer om meningsytringer er tilladte eller ej, ikke
de private virksomheder.
Indhold bør kun fjernes, hvis det er ulovligt i dansk lov. Der
bør indføres et generelt forbud imod at tjenesteudbydere har
retningslinjer, der krænker borgernes muligheder for at kunne
ytre sig frit indenfor lovens rammer. Tjenesteudbydernes
egne retningslinjer bør på ingen måde have nogen betydning
for hvilket indhold som bliver slettet på deres platforme og
retningslinjerne skal ikke tillægges nogen retslig betydning
ved efterprøvelse af disse sager.
Hvis Folketinget ønsker at ulovligt indhold skal fjernes fra
online tjenester, så skal der som minimum retskrav have
været indgivet politianmeldelse af forholdet (f.eks. upload af
anmeldelseskvittering eller direkte foranledning fra politiet i
grove sager), før indholdet kan fjernes. Det er stadig
problematisk i forhold til borgerens retssikkerhed, men det vil
give en vis beskyttelse imod falske anmeldelser.
Slettet indhold som anklagemyndigheden eller domstolene
har bedømt til at være lovligt, bør med det samme
genetableres og afsenderen bør modtage erstatning for
sletningen.
Der skal indsættes beskyttelse mod tjenesteudbyderens
censur i loven. Det skal være ulovligt for tjenesteudbyderne at
foretage brede sletninger af borgerens ytringer eller andre
censurindgreb indenfor bestemte områder. Dette kan f.eks.
være shadow banning af bestemte brugere eller fjernelse af
f.eks. hashtags eller lovligt indhold. Her tænker jeg f.eks. på
da Facebook fjernede søgeadgangen til alt indhold, der var
relateret til
Kyle Rittenhouse-sagen
eller Twitter, som har
fjernet politikere de ikke bryder sig om, eller
Youtube som
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0157.png
forsøger at kontrollere narrativer
eller sletter alt de er politisk
uenige med, inkl. fra
folkevalgte politikere og partier.
Vi har
også eksempler fra Danmark, hvor youtuberen
Lars Krag
Andersen flere gange er blevet udsat for shadow bans
og
direkte sletninger, pga. Google tilsyneladende mente han
havde de forkerte politiske holdninger.
Der skal indsættes hurtige og effektive klagegange til at få
efterprøvet sletninger foretaget af tjenesteudbyderne. Målet
bør være det samme som ved anmeldelse, dvs. 24 timer for
mindre sager og 7 arbejdsdage for mere komplicerede sager.
7 dage som lovforslaget er indrette nu i §7 stk. 4 er for lang
tid, da det f.eks. kan bruges til fjerne kommentarer om sager
der er aktuelle i medierne.
Konkurrence- og Forbrugerstyrelsens sagsbehandlingstider
bør også defineres tydeligt i loven og være effektive, så det
ikke tager måneder eller år at få afprøvet sin sag. Der bør også
indsættes prøvning ved styrelsens kontrolmyndighed.
Der bør indsættes kompensationsordninger for ulovlige
sletninger af lovlige ytringer. Borgerne bør få erstatning, hvis
tjenesteudbyderne har slettet borgernes lovlige ytringer. Jeg
foreslår en kompensationsordning, hvor borgerne får
erstatning pr. dag, ytringen har været fjernet fra platformen.
Det vil også motivere tjenesteudbyderne til at have effektive
klagegange og forhindre de-facto-afvisning af borgernes
klager.
Udmålingen af erstatningen bør være i overensstemmelse
med tjenesteudbyderens størrelse.
Ved grove overtrædelser af ytringsfriheden, hvor
tjenesteudbyderne f.eks. bevidst censurerer bestemte
politiske eller religiøse grupper i samfundet eller prøver at
L 146 - 2021-22 - Bilag 2: Høringsnotat og høringssvar fra erhvervsministeren
2547228_0158.png
påvirke valg, bør tjenesteudbyderne modtage voldsomme
sanktioner i form af bøder.
Brugergrænsen i lovforslagets §2 skt. 3 er problematik for
demokratiet og ytringsfriheden, hvis det medfører at
tjenesteudbyderne derved indfører at lukkede grupper kun
kan have 5000 personer i dem. Det er ligesom at sige du kun
må have 5000 mennesker til en demonstration. Lovforslaget
bør respektere brevhemmeligheden og være baseret på
forholdet mellem en ytring er privat eller offentlig. Dette er
ikke tydeligt i lovforslaget, hvor selv private ytringer mellem
to mennesker er inkluderet.
Dette er mit høringssvar. Jeg stiller mig gerne til rådighed for
medlemmer af Folketinget, som skulle have spørgsmål.
Bedste hilsner
Frank Ulrich
Ph.d. i Informationssystemer
Telefon: 50403066
[email protected]
Hemmelig adresse.