Beitrag zur Debatte um Artikel 11 (Leistungsschutzrecht für Presseverlage) und Artikel 13 (Upload-Filter)

In den letzten Wochen hat die Diskussion um sogenannte Upload-Filter und das Leistungsschutzrecht im Zuge der geplanten EU-Urheberrechtsreform an Fahrt aufgenommen. Das EU-Parlament hob am 6. Juli das Verhandlungsmandat des Rechtsausschusses wieder auf. Damit ist klar, die Debatte ist noch längst nicht beendet. Doch mit gegenseitigen Vorwürfen der „Beschwörung von Untergangszenarien“ bis hin zu „Desinformationskampagnen“ stehen sich Kritiker und Befürworter dieser Vorschläge scheinbar unversöhnbar gegenüber – das erinnert mich stark an die deutsche Diskussion um das Leistungsschutzrecht aus dem Jahr 2012.

Es wird Zeit, dass wir uns wieder auf die Gemeinsamkeiten konzentrieren: Wir alle wollen ein modernes europäisches Urheberrecht, eine starke und unabhängige Presse sowie eine freie Netzkultur. Doch der derzeitige Vorschlag zur Reformierung des EU-Urheberrechts schafft es noch nicht, alle drei Ziele tatsächlich zusammen zu bringen. Dieser Beitrag ist der Versuch einer Versachlichung der Debatte.

Kommen Upload-Filter überhaupt im vorgeschlagenen Text vor?

Das Wort „Upload-Filter“ ist in dem umstrittenen Artikel 13 der Richtlinie zwar nicht zu finden. Darauf berufen sich auch Vertreter der Kultur- und Medienwirtschaft, wenn sie zur Unterstützung des Textes in seiner jetzigen Form aufrufen. Doch auch wenn sie nicht explizit enthalten sind, machen die in Artikel 13 enthaltenen Vorgaben den Weg frei für die Einführung von Upload-Filtern.

Zunächst zielt Artikel 13 darauf ab, dass die Betreiber von Online-Plattformen, wie bspw. YouTube, direkte Lizenzvereinbarungen mit den Unternehmen treffen sollen, die Rechte an urheberrechtlich geschütztem Material haben (also Plattenfirmen, Verlage, Medienhäuser). Doch selbst dann müssen Plattformbetreiber „Anstrengungen“ nachweisen können, die Urheberrechtsverletzungen aktiv zu verhindern, um keine Strafen zu riskieren. Sie müssen also darauf achten, dass Nutzer kein urheberrechtlich geschütztes Material hochladen.

Haftbar sollen die Plattformbetreiber bereits in dem Moment der Veröffentlichung sein und nicht, wie bisher, wenn sie auf einen Verstoß aufmerksam gemacht wurden. Das heißt konkret: Wenn private Unternehmen nicht alle, durch Nutzer generierte Inhalte vor der Veröffentlichung filtern und prüfen, riskieren sie heftige Strafen. Genau hier liegt das Problem, denn dieses Verfahren ist eine Abkehr vom bewährten „notice and take down“ Prinzip.

Von den Befürwortern des Artikels 13 wird gern darauf verwiesen, dass die Maßnahmen gegen Urheberrechtsverletzungen „geeignet und verhältnismäßig“ sein sollen. Doch für wen eigentlich? Gemeint sind hier die Vertragspartner – also die Plattformbetreiber und die Rechteinhaber. Die Nutzer der Plattformen kommen in dieser Betrachtung gar nicht vor. So kommt auch der UN-Sonderberichterstatter für Meinungsfreiheit zu dem Schluss, dass Artikel 13 in seiner derzeitigen Formulierung dazu führen würde, dass viele Plattformbetreiber automatisierte Maßnahmen einführen werden, die bereits vor Veröffentlichung hochgeladene Inhalte filtern- also: Upload-Filter.

Ich teile daher die Befürchtungen der netzpolitischen Vereine und vieler meiner Kollegen aus allen Fraktionen, dass mit Artikel 13 der Grundstein für eine Upload-Filter-Infrastruktur gelegt werden soll. Auch eine weitergehende Nutzung dieser Infrastruktur ist bereits in Planung. So hat der EU-Rat schon im März 2018 einen Vorschlag gemacht, der die Anwendung von Upload-Filtern auf diverse andere Rechtsbereiche ausweiten würde. Zuletzt hat der deutsche Bundesinnenminister Horst Seehofer sogar eine Formulierung, die scheinbar auf den Einsatz von Upload-Filtern zur Bekämpfung von bspw. Hate Speech abzielt, in das Abschlusspapier des EU-Gipfels am 28. und 29.06.2018 hineinverhandeln lassen.

Filter sind zudem nicht in der Lage, Satire, Zitate oder Parodien zu erkennen. Es ist technisch nicht möglich, legale und illegale Inhalte im Internet automatisiert zu unterscheiden. Somit kommt es zur Blockierung legaler Inhalte – und das ist nicht hinnehmbar. So wird unser Recht auf freie Meinungsäußerung im Netz schrittweise eingeschränkt.

Wer gegen das Leistungsschutzrecht ist, ist auch gegen Medienvielfalt?

Schon im Jahr 2012 wurde die Debatte um das Leistungsschutzrecht in Deutschland gern als moderne Version des Kampfes David gegen Goliath aufgebauscht: Die kleine Lokalzeitung, deren geistiges Eigentum von global agierenden Internet-Konzernen aus den USA ausgebeutet würde. Doch stimmt das eigentlich?

Tatsächlich geht es in Artikel 11 der EU-Urheberrechtsreform darum, dass Suchmaschinen und Nachrichtenaggregatoren (hier ist vor allem Google gemeint) Presseverlage an ihren Einnahmen beteiligen, wenn in den Suchergebnissen ihre Artikel verlinkt werden und zur besseren Ansicht auf Überschriften und Textausschnitte zugegriffen wird.

Die Antagonisten in der Diskussion um das Leistungsschutzrecht sind mitnichten David und Goliath, sondern vielmehr Goliath vs. Goliath. Die großen Internetunternehmen gegen die großen Presseverlage, deren Einflussmöglichkeiten auf die Politik keineswegs so ungleich sind, wie es gern dargestellt wird.

Auch stimmt es nicht, dass Zeitungen und Zeitschriften bisher nicht als Rechteinhaber anerkannt werden. Bereits jetzt macht sich strafbar, wer ohne Erlaubnis ganze Artikel oder Zeitungen kopiert und weiterverbreitet. Weiter wird behauptet, dass Verlage derzeit nicht entscheiden könnten, wie und wo auf ihre Inhalte zugegriffen wird. Nur darum ginge es beim Leistungsschutzrecht. Doch auch jetzt schon kann unterbunden werden, dass Nachrichtenaggregatoren, beziehungsweise Suchmaschinen, ein Werk im Internet finden. Jeder Webseitenbetreiber kann technisch, durch die sogenannte robots.txt-Datei, den Suchmaschinenbetreiber darauf hinweisen, dass er nicht gefunden werden möchte. Diese standardisierte Datei, die jeder Webseitenanbieter für die eigene Seite bereitstellen kann, wird von den Suchalgorithmen der Suchmaschinen erkannt und verarbeitet. In ihr sind Regeln definiert, wie die Seite durchsucht werden darf und was ignoriert werden soll. Die robots.txt-Datei dient damit als Wegweiser und Türsteher, mit der die zugänglichen Bereiche seitengenau definiert werden können. Selbst der Text, den eine Suchmaschine in den Suchergebnissen anzeigen soll, kann einzeln und unabhängig vom Inhalt auf der verlinkten Webseite definiert werden.

Tatsächlich basiert allerdings das derzeitige Geschäftsmodell der meisten Verlage auf Werbeeinnahmen. Je mehr Traffic, bzw. Besuche sie auf ihren Webseiten generieren, desto höher sind ihre Werbeeinnahmen. Dazu brauchen sie die Links der Suchmaschinen, sozialen Netzwerke und Nachrichtenaggregatoren aber unbedingt. Denn wer heutzutage nicht über Suchmaschinen auffindbar ist, existiert de facto nicht. Die Verlage wollen also gar nicht, dass Google sie nicht mehr findet oder keine Textausschnitte mehr anzeigt, sondern dass Google dafür bezahlt. Wenn es also darum ginge, den Zugang zu den Inhalten kontrollieren zu können, müssten Presseverleger konsequenterweise fordern, dass die robots.txt-Datei rechtsverbindlich von Suchmaschinenbetreibern berücksichtigt werden muss (Google und alle bekannten Suchmaschinen halten sich übrigens bereits an diese Vorgabe).

Wir sollten diese Schutzlücke beheben, indem wir diese etablierten Vorgaben rechtsverbindlich machen. Webseitenbetreiber könnten dadurch klare Regelungen treffen, welche Inhalte von welchen Diensten maschinell erfasst werden dürfen. Verstößen sollten sie mit einem Unterlassungsanspruch begegnen können. Insbesondere Presseverlage können auf diesem Wege online den Schutz ihrer Werke gegenüber den Nachrichtenaggregatoren durchsetzen, indem sie ihre Produkte oder Teile der Produkte dem Zugriff der Aggregatoren beziehungsweise Suchmaschinen entziehen. Es gilt: Der Code ist das Gesetz.

Statt diese Möglichkeit jedoch allein auf Presseverlage zu begrenzen, sollten wir allen Anbietern von Inhalten im Internet das gleiche Recht und damit insbesondere auch Bloggern die Möglichkeit geben, die Verbreitung der von ihnen geschaffenen Inhalte verbindlich und einfach handhabbar über das bereits etablierte Verfahren (robots.txt) zu steuern und auch rechtlich einzufordern. Der Vorschlag einer solchen Regelung ermöglicht weitreichende Kontrollmechanismen eigener Inhalte.

Ein moderner Rechtsrahmen für die freie Presse und Medienvielfalt!

Es steht außer Frage, dass die Medienbranche und auch der Journalismus durch die voranschreitende Digitalisierung und globale Vernetzung vor neuen Herausforderungen und einem großen Umbruch stehen. Deswegen müssen wir einen modernen Rahmen schaffen, der die Pressefreiheit und Medienvielfalt stärkt und die Finanzierung von Medien- und Nachrichtenangeboten sichert. Das Leistungsschutzrecht ist hierbei jedoch der falsche Weg. Es gibt andere, vielversprechendere Ansätze, wie z.B. die Anerkennung von Journalismus als gemeinnützige Tätigkeit oder das rechtsverbindliche robots.txt-Verfahren.

Nach der Sommerpause wird im Europäischen Parlament erneut über die EU-Urheberrechtsreform verhandelt. Noch haben alle beteiligten Akteure die Chance, sich für ein zukunftsweisendes europäisches Urheberrecht einzusetzen – ohne Leistungsschutzrecht und ohne Upload-Filter.

Mit freundlichen Grüßen,

Jimmy Schulz MdB