Ein Terrorfilter soll in Zukunft Europas Internet sicherer machen. Der Gesetzesentwurf ist jedoch umstritten.

Foto: apa

Was ist eigentlich Terrorismus, was sind terroristische Inhalte? Das sind Fragen, deren Beantwortung sehr umstritten ist – denn die Definition von Terrorismus unterscheidet sich von Staat zu Staat massiv. Genau in diese Grauzone begibt sich die Europäische Union nun mit einem Gesetzesentwurf, der Terrorismus im Netz einschränken soll – nämlich indem er Plattformen in die Pflicht nimmt, derartige Inhalte zu blockieren. Dabei unterscheiden sich die Positionen von Rat und Kommission sowie jene des EU-Parlaments stark voneinander – das könnte sich aber bald ändern. Und wie es scheint, setzen sich vor allem die restriktiveren Positionen durch. Ein Überblick.

Ein Terrorfilter – was ist das?

Bereits 2018 sprach die EU-Kommission erstmals von ihren Plänen, Terrorinhalte im Netz künftig aktiver zu ahnden, um Online-Radikalisierung einzudämmen. Ihre Positionen sind dabei besonders streng: So will sie, dass Inhalte, die als terroristisch eingestuft werden, innerhalb von einer Stunde nach Aufforderung durch eine Behörde entfernt werden müssen. Auch sollen nicht nur Inhalte betroffen sein, die online öffentlich abrufbar sind –auch beispielsweise Cloud-Services sollen unter diese Regelung fallen. Der EU-Rat nimmt diese Vorschläge weitgehend an. Das EU-Parlament will hingegen eine gemäßigtere Version.

Wer ordnet Löschungen an?

Geht es nach der EU-Kommission, soll jeder EU-Mitgliedsstaat von Unternehmen, die innerhalb der EU ansässig sind, eine Entfernung verlangen können. Das Parlament möchte hingegen, dass die zuständigen Behörden im jeweiligen Land entscheiden – zwar sollen auch andere Mitgliedsstaaten eine Löschung fordern dürfen, letzten Endes soll aber nach Ansicht des Parlaments die jeweilige heimische Behörde die Entscheidungsmacht tragen.

Welche Plattformen sind betroffen?

Geht es nach der EU-Kommission, sollen alle Plattformen eingebunden werden, die online Informationen zur Verfügung stellen. Das gilt aber nicht nur für öffentliche Seiten, sondern beispielsweise auch für Cloud-Services. Und: EU-Kommission und Rat wollen nicht, dass beispielsweise Inhalte, die zu journalistischen oder künstlerischen Zwecken erstellt wurden, aus der Regelung ausgenommen werden. Das Parlament hat sich dagegen ausgesprochen. Das EU-Parlament möchte, dass nur Plattformen, die Inhalte öffentlich anbieten – und auch nicht teilöffentlich, wie beispielsweise bei Messenger-Diensten wie Whatsapp –, zu einer Löschung verpflichtet werden. Zudem sollen journalistische Inhalte und Co ausgenommen werden.

Was heißt das?

Kritiker wie der deutsche EU-Abgeordnete Patrick Breyer (Piraten) befürchten, dass durch diese Maßnahme die Pressefreiheit in Gefahr ist: Schließlich würde das bedeuten, dass beispielsweise Videoarchive, die Kriegsverbrechen wie zum Beispiel jene in Syrien dokumentieren, nicht mehr einsehbar sind. Auch könnte dies zu Missbrauch führen – Breyer verweist darauf, dass zum Beispiel satirische Inhalte möglicherweise entfernt werden müssten.

Bei welchen Punkten wird noch verhandelt?

Ein großer Streitpunkt sind "proaktive Maßnahmen", die Plattformen setzen müssen – also dass als terroristisch eingestufte Inhalte noch vor ihrer Veröffentlichung entfernt werden. Während Kommission und Rat zwar namentlich keine Uploadfilter nennen, handelt es sich bei solchen aus technischer Perspektive um die realistischste Lösung. Uploadfilter sind Systeme, die automatisiert Inhalte ausfindig machen.

Wie funktioniert das?

Um die Erkennung sicherzustellen, ist wahrscheinlich, dass digitale Fingerabdrücke solcher Inhalte in Datenbanken gespeichert werden, auf die Anbieter Zugriff haben. Große Anbieter wie Facebook und Google verwenden solche bereits länger. Ein schon länger existierendes Problem in diesem Zusammenhang ist, dass diese Datenbanken wenig Transparenz liefern.

Gibt es weitere Kritik?

Vor allem die Positionen der Kommission werden als gefährlich eingestuft. Nebst der grundsätzlichen Kritik an Uploadfiltern, die aufgrund ihrer Fehleranfälligkeit in der Vergangenheit immer wieder in Verruf geraten sind, kritisiert Breyer etwa den Plan der Kommission, die Löschung von Inhalten EU-weit zu gewährleisten – dadurch könnten etwa Staaten wie Ungarn, das Umweltaktivisten als "Ökoterroristen" bezeichnet habe, eine Löschung derartiger Inhalte in anderen Ländern erwirken.

Was sind überhaupt "terroristische Inhalte" in diesem Zusammenhang?

Hier wird wohl die Antiterrorrichtlinie zum Einsatz kommen, die 2017 verabschiedet wurde. Darin werden schwere Straftaten aufgelistet, die "für eine Einstufung als terroristische Straftaten infrage kommen", falls sie mit terroristischem Ziel begangen werden; beispielsweise "Angriffe auf das Leben einer Person" oder eine dahingehende Drohung. Zudem verweist der Rat auf Content terroristischer Vereinigungen, die in der EU-Terroristenliste aufgeführt sind.

Wie lautet der Stand der Verhandlungen?

Seit Oktober laufen nun die Triloggespräche zwischen Rat, Kommission und Parlament. Das EU-Parlament strebt dabei eine weitgehende Entschärfung des Entwurfs an. Jedoch suggeriert ein Papier, das von "Politico" veröffentlicht wurde, dass das Parlament bereit ist, mehr Kompromisse mit Rat und Kommission einzugehen. Zudem ist der (neue) Berichterstatter des Parlaments, der Pole Patryk Jaki, zuletzt dahingehend aufgefallen, dass er den Anschein erweckte, sich für Uploadfilter auszusprechen – das wurde nachträglich aber wieder zurückgenommen, wie "Netzpolitik.org" berichtete. Eigentlich hätte am 18. März weiterverhandelt werden sollen – aufgrund der Coronavirus-Krise ist aktuell aber unklar, wann es weitergeht. (Muzayen Al-Youssef, 12.3.2020)