I mitten av september i år röstade EU genom nya upphovsrättsregler för digitalt innehåll. Ett beslut som både hyllats och sågats. En sak är dock säker: Att säga att ”inget upphovsrättsskyddat material ska få laddas upp” är en sak. Att automatisera den typen av beslut är något helt annat.
”Många av de politiker jag träffar tror att det räcker att identifiera ett problem. Sedan kan programmerare skriva ett program som undviker det.”
Citatet är från en professor i datavetenskap jag intervjuade för några år sedan om elektroniska val och sannolikheten för att vi snart kan rösta via internet. Professorn menade att även om du har insikt om vilka säkerhetsrelaterade problem du står inför, är problemen inte nödvändigtvis möjliga – definitivt inte enkla – att lösa.
Citatet dök upp i mitt minne under rapporteringen om det förslag till nya upphovsrättsregler som EU-parlamentet röstade igenom i mitten av september. Här finns två delar som fått hård kritik: Artikel 11, det som ibland kallas för ”länkskatten”, och artikel 13, ”uppladdningsfiltren”.
Att det är enkelt att säga ”inget upphovsrättsskyddat material ska få laddas upp” är en sak. Att automatisera den typen av beslut är något helt annat.
Citizen Lab, vid University of Toronto, publicerade i augusti en rapport om de censurfilter som finns i den kinesiska appen WeChat. Forskare knutna till Citizen Lab ville undersöka möjligheterna att ta sig runt filtren som censurerar både text och bilder. De lyckades hitta metoder som lurade båda varianterna. EFF sammanfattade Citizen Labs resultat i en kommentar:
"The Chinese censorship system is attempting something far more modest than the EU's proposed copyright filters—checking for matches to a paltry few hundred thousands of images, using unimaginably giant pools of talent and money—and they can't make it work."
De filter som redan idag finns på plats för att skydda upphovsrättsinnehavare på bland annat Youtube är inte heller felfria. I vissa fall blir konsekvenserna märkligare än annars. Som när ett avsnitt av den tecknade serien Family Guy innehåller ett klipp från det klassiska Nintendo-spelet Double Dribble – ett klipp som animatörerna hittade på Youtube. När Fox sedan laddar upp sitt avsnitt av Family Guy till Content ID blir resultatet att originalklippet (som alltså använts utan tillstånd) automatiskt plockas ner från Youtube.
Sammanhanget spelar roll
Facebook har vid upprepade tillfällen hamnat i skottgluggen för hur företaget modererar innehåll. Saker som många tycker borde få finnas kvar plockas ner medan innehåll som många menar borde bort får ligga kvar. Ett utmärkt avsnitt av podcasten Radio Lab, Post No Evil, lyckas på ett tydligt sätt illustrera den komplexa miljö som Facebook är. Och hur det många gånger är sammanhanget som avgör om något bör få ligga kvar eller plockas ner.
Problemet är att det för moderatorerna är svårt att förstå kontexten för en bild eller en film. Det finns kulturella skillnader, det finns regionala frågor och så vidare. Därför tar Facebooks regler för moderatorerna sin utgångspunkt i vad som går att se på skärmen, inte några kringliggande sammanhang.
Ett filter som ska sätta stopp för upphovsrättsintrång kan inte bara bry sig om vad som syns eller hörs i ett klipp. Sammanhangen spelar roll. En direktsändning via nätet, där en journalist rapporterar från en stor demonstration, ska givetvis inte plockas ner från nätet bara för att arrangören spelar en upphovsrättsskyddad låt i sin högtalaranläggning på platsen. En turist som tar ett foto på ett torg i Stockholm samtidigt som det passerar en buss med en reklamskylt med ett upphovsrättsskyddat fotografi – vad ska filtren göra med en sån bild?
Och så finns det undantag från upphovsrätten. Det visar till exempel den alldeles färska domen från Patent- och marknadsöverdomstolen gav Dagens Nyheter rätt att publicera bilder som tagits från Sara Skyttedals privata Facebook-sida. Hur ska filtren kunna förstå en sån situation?
Kommer användarna att gynnas?
Ett av argumenten för en förändrad ansvarsfördelning, där det ligger på plattformarna att se till att inga upphovsrättsintrång sker, är att det ska gynna slutanvändarna. Stim skriver på sin hemsida, under rubriken Sant och falskt om copyrightdirektivet:
"En av drivkrafterna bakom en modernisering av upphovsrätten är att privatpersoner idag är ansvariga för det material de laddar upp på plattformar. I direktivet är grundidén att ansvaret ska flyttas från privatpersonen till företaget, som tjänar pengar på att sprida det upphovsrättsskyddade materialet. Dessutom stärks användarna i förslaget då de får en lagstadgad rätt att klaga om plattformen felaktigt tar bort innehåll. Klagomålet ska hanteras av en fysisk person och besluten ska motiveras."
Problemet är givetvis att den ansvarsförflyttningen innebär en överhängande risk att plattformarna hellre fäller än friar, att de föredrar filter som hellre sorterar bort en gång för mycket än en gång för lite. Och i vilken utsträckning går det då att hävda att användarna gynnas?
Att förslaget däremot innehåller krav på att man som användare ska kunna komma i kontakt med nätjättarna och framföra sina klagomål är däremot välkommet. Alla som försökt komma i kontakt med Facebook eller Google vet hur svårt det är.
Hur viktiga är nyhetslänkar för jättarna?
Så långt artikel 13 och upphovsrättsfiltren. Artikel 11, som innebär att man inte får länka till nyhetstexter hur som helst, dras med andra problem. Ett är det frågetecken som finns kring förslagets konsekvenser.
Liknande regelverk har redan införts runt om i Europa. Först i Tyskland. Där upptäckte mediehusen att trafiken till de egna sajterna minskade när Google News inte längre visade utdrag ur texterna utan bara rubriker. Resultatet blev en överenskommelse med Google som innebär att företaget slipper betala, medan konkurrenterna fortfarande behöver göra det.
När Spanien följde i Tysklands fotspår ville man inte hamna i samma situation, där Google slapp betala. Därför innehåller de spanska reglerna skrivningar om att det inte går att undanta ett företag från länkavgiften. Vilket fick som konsekvens att Google istället stängde ned Google News i Spanien.
I sammanhanget finns det också anledning att reflektera över hur de traditionella mediahusen agerar för att driva trafik till sina webbplatser. De lägger inte till ett kommando i filen robots.txt, som på varje webbplats ger instruktioner till sökmotorerna, för att på så sätt exkludera sajten ur sökresultatet. Eftersom sökmotorerna driver värdefull trafik investerar man istället i sökmotorsoptimering för att hamna högt i sökresultaten.
De oanade konsekvenserna
Teknikbeslut av det här slaget handlar inte bara om hur bra tekniken fungerar. De handlar också om vilka konsekvenser tekniken får även om den fungerar till 100 procent. Lyckas vi bygga en teknisk lösning som gör det helt säkert att via internet rösta i framtida riksdagsval är det ändå inte självklart att det är en teknisk lösning vi vill ha. I en demokrati, till exempel, är valhemligheten en fundamental del av den demokratiska processen. Ingen ska kunna sälja sin röst eller utsättas för påtryckningar att rösta på ett visst parti. Därför får ingen följa med in bakom skärmarna i vallokalen.
Ett filtersystem som aldrig fattar felaktiga beslut utan bara tar bort sådant som finns i databasen, kan ändå visa sig problematiskt om någon hävdar upphovsrätt till innehåll de inte har upphovsrätten till. Som när Sony tidigare i höst hävdade upphovsrätt till Bach. Eller när någon lagt in en text av EU-parlamentarikern Julia Reda i det system som plockar bort upphovsrättsskyddat material från Googles sökresultat. Något som också har drabbat EFF.
Det senare är exempel på en av de farhågor som lyfts kring de automatiska filtren: Att tekniken används för att få bort saker som inte är skyddade av upphovsrätten, men där upphovsrättsfiltren erbjuder en ”lösning”. Nätdebattören Cory Doctorow hör till dem som resonerat i de banorna:
"Under Article 13, everyone gets to play wholesale censor, and every service has to obey their demands: just sign up for a 'rightsholder' account on a platform and start telling it what may and may not be posted. Article 13 has no teeth for stopping this from happening: and in any event, if you get kicked off the service, you can just pop up under a new identity and start again."
Det är en av riskerna, där filtren medvetet utnyttjas på andra sätt än vad det är tänkt. En annan risk är de fel som uppstår av misstag. Förespråkarna av automatiska filter kommer med största sannolikhet använda procentsiffror i sin argumentation. ”Filtren gör rätt i 99,9 procent av fallen.”
Problemet är att de där sista tiondelarna snart blir stora absoluta tal när filtren används på tillräckligt stora datamängder. 2015 laddades det upp 300 timmar video till YouTube varje minut. På ett dygn blir det 432 000 timmar. Med en felprocent på 0,1 blir det 432 timmars felaktiga beslut per dag, närmare 158000 på ett år. En väldigt liten andel av det totala, men fortfarande stora absoluta siffror.
Under hösten fortsätter arbetet med de nya upphovsrättsreglerna genom så kallade trilog-samtal mellan parlamentet, kommissionen och ministerrådet. En fråga både politiker och medborgare behöver fundera på är vilka oönskade konsekvenser vi är beredda att acceptera – och i vilken omfattning.
Av Anders Thoresson
Anders Thoresson har bevakat IT och telekom sedan 1999, först som reporter på Ny Teknik och sedan 2006 som frilans. Genom åren har hans texter bland annat publicerats i Dagens Nyheter, Dagens Industri, Forskning och Framsteg, IVA Aktuellt och Ny Teknik. Han har också skrivit flera Internetguider åt IIS och gör poddcasten Digitalsamtal. Du når Anders via hans webbplats.