EU: Bekämpfung illegaler Inhalte im Netz – vorläufig nur ein Notweg für die Kommission
Der Digital Service Act (DSA – VO (EU) 2022/2065) tritt zwar erst am 17.2.2024 offiziell in Kraft. Doch aufgeschreckt durch die nach den Terroranschlägen vom 7.10.2023 in Israel ausgelöste Springflut illegaler, antisemitischer „Hassrede“, vor allem auch terroristischer Aktionen im Netz, hat die Kommission jetzt in einer offiziellen „Mitteilung“ vom 18.10.2023 (C(2023) 7158 final – sowie Annex) die Alarmleine gezogen. In einem fast verzweifelt zu nennenden Versuch will sie erreichen, dass die bereits von ihr benannten „sehr großen Plattformen“ und „sehr großen Suchmaschinen“ (Art. 33 Abs. 4, Art. 34 DSA – Amazon, Apple, Google, Booking, Facebook etc.) schon jetzt ihrer gesteigerten Verantwortung bei der Unterbindung illegaler und terroristischer Angriffe im Netz nachkommen.
Die Kommission sieht die mediale Welt in einer bislang völlig unbekannten, nie dagewesenen Instabilität. Grund: Die ungeheuer große Masse von illegalen und schädlichen, antisemitischen, unwahren „Hassreden“, aber auch solche mit terroristischen Inhalten – dieser Missstand hat sich in den Augen der Kommission zu einer sehr ernsten Bedrohung von Sicherheit und demokratischen Freiheiten in Europa entwickelt. In den Worten der Kommission: „Die Destabilisierung der politischen und sozialen Strukturen der Union oder ihrer Teile ist ein eindeutiges Risiko“ und daher eine mit großem Nachdruck und hoher Intensität zu bekämpfende gesellschaftliche Krise. Im erbitterten Streit um Echtheit von Nachrichten und Bildern, vor allem auch um die Deutungshoheit zahlloser an Grausamkeit nicht zu überbietender Videos und Audiobotschaften ist diese Krise auch eine „ernste Bedrohung der öffentlichen Sicherheit oder Gesundheit“. Zum besseren Verständnis: Erwägungsgrund Nr. 93 DSA benennt als solche Krisen vor allem Kriege, terroristische Aktivitäten, aber auch Naturkatastrophen und Pandemien. Doch was ist jetzt zu tun? Schärfer gefragt: Was kann die Kommission überhaupt gegen diese die Grundfesten der freien Gesellschaft erschütternde mediale Krisenlage, gegen diese virtuelle Kriegsführung tun?
Es ist – ganz nüchtern betrachtet – ein schweres Defizit in der vorbereitenden Umsetzung der Aufsichtsregeln des DSA bei den Mitgliedstaaten, welches die Kommission in ihrer Mitteilung vom 18.10.2023 schonungslos in den Mittelpunkt stellt. Danach war (eigentlich) von Gesetzes wegen vorgesehen, dass alle als „sehr groß“ eingeordneten Plattformen/Suchmaschinen die von ihnen ausgehenden und über sie verbreiteten systemischen Risiken von illegalen, aber auch von terroristischen Inhalten im Rahmen eigener, nach den Art. 34 ff. DSA begründeten Verhütungspflichten schon mit Wirkung vom 23.4.2023 an ermitteln, bewerten und minimieren müssen. Zu diesem Datum hatte die Kommission nämlich einen sog. delegierten Rechtsakt erlassen und die zuständigen „Torwächter“ für die „sehr großen Plattformen/Suchmaschinen“ benannt.
Dahinter verbirgt sich gesetzestechnisch ein klassischer Fall eines „private law enforcement“, gestützt aber auch durch öffentliche Überwachung und Vollzug. Drei zentrale Durchsetzungsbehörden sieht der DSA vor, deren Struktur analog zu den Regeln der Finanzmarktaufsicht gebildet ist: Es geht um einen „Digitalen Dienste Koordinator“, den die Mitgliedstaaten jeweils für ihr Land benennen, der dann neben der Kommission und dem neu zu schaffenden „Europäischen Gremium für Digitale Dienste“ (Art. 40 DSA) für Überwachung und Bewertung der Einhaltung dieses Gesetzes zuständig ist. Doch in Erwägungsgrund Nr. 7 der hier referierten Bekanntmachung bemängelt die Kommission jetzt, dass mehr als 90% der Mitgliedstaaten säumig sind (Erwägungsgrund Nr. 8) und dass daher auch das „Europäische Gremium für Digitale Dienste“ seine aufsichtsrechtliche Arbeit noch nicht aufgenommen hat.
Daher verbleibt der Kommission jetzt nur ein schmaler Pfad als Ausweg, sozusagen als Notweg, um die zutreffend diagnostizierte Krisenlage für den Bestand der demokratischen Grundordnung einigermaßen verlässlich in den Griff zu bekommen: Die Kommission fordert die Mitgliedstaaten auf, sich untereinander und mit der Kommission auf informeller Basis zu treffen, um die Vorgehensweise gegenüber den „sehr großen Plattformen/Suchmaschinen“ zu besprechen, wie denn die gegenwärtige Krise bewältigt werden könnte. Das ist „soft law“ in Reinkultur. Auch bittet die Kommission die Mitgliedstaaten darum, einen „unabhängigen“ Digitalen Dienste Koordinator vorläufig zu benennen, weil dessen Rolle „unverzichtbar“ ist, um effektiv gegen illegale und terroristische Inhalte im Netz vorzugehen und, wie hinzuzusetzen ist, der Kommission zu helfen, die Schutzmechanismen des DSA schon jetzt gegenüber den „sehr großen Plattformen/Suchmaschinen“ durchzusetzen (Erwägungsgrund Nr. 10).
Ein effektives und auch einheitliches Vorgehen der Kommission gegenüber einer Pflichtverletzung dieser „Torwächter“ wird allerdings dadurch erschwert, dass die Regeln des DSA – trotz des Vorhandenseins eines gewissen unionsrechtlichen Rahmens – nicht eigens und ausdrücklich sagen, was denn im Einzelfall „illegal“ ist, als Hassrede, als Antisemitismus, als Rassismus usw., weil die jeweilige genaue Definition den nationalen Strafgesetzen überlassen bleibt. Bei der Qualifizierung eines terroristischen Aktes ist dies jedoch anders. Hier kommt es darauf an, ob ein Auffordern zur Begehung eines terroristischen Verbrechens vorliegt oder auch die Verherrlichung desselben, um insoweit die zentralen Fallbeispiele zu nennen. Solche „Nachrichten“ müssen im Übrigen nach der Gesetzeslage innerhalb einer Stundenfrist gelöscht werden. Doch das Wichtigste bleibt nach wie vor, ob denn die „sehr großen Plattformen und Suchmaschinen“ im Kontext ihrer Aufgaben nach dem DSA nachweislich effektive Algorithmen installieren, welche mit hinreichender Sicherheit in sehr kurzer Frist ihre Abwehrfunktion gegen illegale und terroristische Inhalte entfalten oder ob der Angreifer allein aus Zeitgründen im Vorteil ist und die von ihm generierte „Botschaft“ des „Bösen“ im Netz blitzlichtschnell zum Schaden der freiheitlichen Gesellschaft „geteilt“ werden konnte.