In het kader van de modernisering van het auteursrecht binnen de Europese Unie heeft het Europese Parlement op woensdag 12 september 2018 gestemd over het voorstel voor een Richtlijn van het Europees Parlement en de Raad inzake auteursrechten in de 'digitale eengemaakte markt' (ofwel de Digital Single Market, afgekort de 'DSM-richtlijn'). Met name artikel 13 van de DSM-richtlijn – de zogenaamde 'content filter'- wordt ontvangen met veel kritiek. In deze blog wordt kort ingegaan op de betekenis en de mogelijke gevolgen van artikel 13.

Artikel 13 DSM-richtlijn

Artikel 13 verplicht "aanbieders van diensten van de informatiemaatschappij die grote hoeveelheden door hun gebruikers geüploade werken en andere materialen opslaan en publieke toegang daartoe verlenen" tot het nemen van maatregelen in samenwerking met rechthebbenden "om de werking van overeenkomsten met rechthebbenden voor het gebruik van hun werken of andere materialen te verzekeren" en "om via samenwerking met de dienstenaanbieders te voorkomen dat op hun diensten door rechthebbenden aangewezen werken of andere materialen beschikbaar worden gesteld".

De aanbieders op wie de verplichting uit artikel 13 is gericht, zijn vooral grote hosting providers als Google en Facebook. Zij slaan namelijk grote hoeveelheden van door hun gebruikers geüploade werken en materialen op en verlenen het publiek toegang hiertoe. Denk bijvoorbeeld aan de video's op Youtube (Google) en de foto's op Facebook en Instagram. Gebruikers uploaden content op deze platforms, waardoor ze voor iedere andere gebruiker van het platform beschikbaar wordt.

De verplichting die artikel 13 deze hosting providers oplegt is op zichzelf nogal vaag beschreven. Ten eerste dienen zij de werking van overeenkomsten met rechthebbenden voor het gebruik van hun werken te verzekeren. Niet duidelijk is op welke overeenkomsten met rechthebbenden deze verplichting ziet, of om welke partijen bij deze overeenkomsten het gaat. Bovendien ziet de verplichting van artikel 13 alleen op "het verzekeren van de werking" van deze overeenkomsten en verplicht het de desbetreffende hosting providers niet tot het sluiten van deze overeenkomsten.

Daarnaast verplicht artikel 13 de desbetreffende hosting providers te voorkomen dat op hun diensten door rechthebbenden aangewezen werken of andere materialen beschikbaar worden gesteld. De betreffende hosting providers dienen dus te voorkomen dat auteursrechtelijk beschermd werk dat als zodanig door de auteursrechthebbende is aangewezen, op hun platform wordt geüpload door de gebruikers van het platform. Zo zal bijvoorbeeld Google dienen te voorkomen dat een Youtube-gebruiker de nieuwste videoclip van zijn favoriete artiest uploadt.

Gevolgen van artikel 13: verplichting tot een online content filter?

Artikel 13 geeft het gebruik van "effectieve technologieën voor herkenning van inhoud" als voorbeeld van de maatregelen die de hosting providers dienen te nemen om te voorkomen dat auteursrechtelijk beschermd werk op hun platforms wordt geüpload. Dit zal in de praktijk inhouden dat de hosting providers ervoor dienen te zorgen dat auteursrechtelijk beschermd werk überhaupt niet kan worden geüpload op hun platforms.

Om aan de verplichtingen onder art. 13 te kunnen voldoen, zullen hosting providers waarschijnlijk genoodzaakt zijn te gaan werken met een 'online content filter'. Hierbij zal de hosting provider een databank vormen van al het werk dat door auteursrechthebbenden als auteursrechtelijk beschermd is aangewezen in de vorm van unieke digitale vingerafdrukken, ook wel hashcodes genaamd. Zodra een gebruiker van het platform content wil uploaden waarvan deze hashcode overeenstemt met die van een werk dat is opgenomen in deze databank, zal deze onderschept worden door het filter en zo niet kunnen worden geüpload op het platform. De auteursrechthebbende zou er ook voor kunnen kiezen dat het werk wel mag worden geüpload door een gebruiker, maar dat deze dan meedeelt in de advertentie-inkomsten die de upload via het platform genereert.

Discussie omtrent de gevolgen van artikel 13

De voorstanders van artikel 13 zijn – uiteraard - de makers, uitgevers en beheerders van auteursrechtelijk beschermde content. Zij zijn niet per se tegen de gratis verspreiding van hun werk op platforms als YouTube, Facebook en Spotify; maar kijken wél met scheve ogen naar de hoge opbrengst die daarmee door de platforms wordt binnengehaald aan advertentie-inkomsten. "Je nummer wordt een miljoen keer gespeeld, en je houdt er vijf dollar aan over", klaagde David Crosby in augustus – niet geheel hyperbolisch.

Daartegenover staan – uiteraard – de platforms zelf, maar ook pleiters voor een open en vrij toegankelijk internet, zoals World Wide Web-uitvinder Tim Berners Lee en Wikipedia-oprichter Jimbo Wales. Een content filter mag dan in theorie wel als een werkbare oplossing gelden, de praktijk leert dat de technologie waarschijnlijk nog niet ver genoeg gevorderd is om te voorkomen dat veel legaal geplaatste content óók wordt tegengehouden. De huidige systemen om beschermde content op te sporen werken immers verre van foutloos. Onlangs bleek bijvoorbeeld dat het onmogelijk was om uitvoeringen van muziek van Bach op YouTube te uploaden, omdat Sony het recht op door haar uitgegeven uitvoeringen van de componist bewaakte met een automatische 'take down notice' – die dus ook toesloeg op uitvoeringen die geheel niet onder het beheer van Sony vielen.

Daarnaast zijn er beperkingen op het auteursrecht, waaronder een beschermd werk met inachtneming van bepaalde voorwaarden wél gebruikt mag worden. Een goed voorbeeld is de parodie-exceptie: je mag een werk zo aanpassen om er de draak mee te steken (of met de maker van het werk, of met een derde). De laatste jaren zien we dit soort gebruik onder andere veel terug in de vorm van de immens populaire 'memes'; plaatjes met grappige teksten eroverheen geplaatst. Naar alle waarschijnlijkheid zal een upload filter het onderscheid tussen memes en onrechtmatige content niet kunnen maken, waardoor de verspreiding van memes tot stilstand zal komen. Tegenstanders zijn dan ook voor behoud van het huidige systeem, waarbij slechts achteraf wordt getoetst aan onrechtmatigheid.

Conclusie

Hoe gaat het nu verder met de DSM-richtlijn? In januari 2019 volgt nog een laatste stemming, maar de verwachting is niet dat artikel 13 nog in gevaar komt. In de finale versie zal een periode afgesproken worden waarin de lidstaten de richtlijn in hun rechtssysteem moeten verwerken. De platforms zullen deze periode moeten gebruiken om hun upload-filters (of alternatieven daarop) zo goed mogelijk aan het werk te krijgen. De praktijk zal moeten uitwijzen hoe goed ze daarin slagen.