Der scheidende EU-Parlamentspräsident Martin Schulz hat die Digitalisierung für sich als politisches Steckenpferd entdeckt—das zeigt zumindest ein Motherboard vorliegendes Dokument, dessen Fomulierungen und Aussagen der Informatiker Jürgen Geuter en detail analysiert und kommentiert hat.
Der Text mit dem Titel „Charta der digitalen Grundrechte der Europäischen Union” soll laut FAZ angeblich von zahlreichen prominenten Unterzeichnern aus Politik, Hacker-Szene sowie unterschiedlichen Digitalexperten mitgetragen werden und in wenigen Tagen in zahlreichen großen Tageszeitungen entweder als Gastbeitrag oder gebuchte Werbung erscheinen.
Videos by VICE
Inhaltlich soll die Charta eine grundlegende Richtung für zahlreiche aktuelle Probleme digitaler Politik vorgeben: So geht es unter anderem um konsequentere Strategien gegen Hassrede (Artikel 5), um Grenzen und Legalität von Massenüberwachung (Artikel 4), aber auch um Themen wie Künstliche Intelligenz (Artikel 8), die Automatisierung der Arbeitswelt (Artikel 21) oder autonome Waffensysteme (Artikel 4, Punkt 4).
Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter
Bemerkenswert ist auch das Ziel des Textes: Schulz will das Dokument in wenigen Tagen einem EU-Ausschuss zur Abstimmung vorlegen, um so eine „verfassungsgebende Versammlung” einzuberufen, wie die FAZ berichtet. Die Entwicklung des Textes soll von der Zeit Stiftung mit initiiert worden sein, wer genau ihn verfasst hat, soll allerdings bis zur Veröffentlichung noch nicht bekannt werden. Auf Rückfrage von Motherboard wollte sich die Zeit Stiftung nicht zur Echtheit des Dokuments äußern—allerdings erklärte eine Sprecherin, dass es tatsächlich bereits morgen im Laufe des Tages zu einer Veröffentlichung kommen werde, mit der man als zivilgesellschaftliche Initiative eine grundlegende Debatte über digitale Grundrechte und Politik anstoßen wolle.
Der folgende Kommentar von Jürgen Geuter, der zuerst auf seinem Blog erschienen ist, zitiert nicht nur alle Passagen des geleakten Charta-Entwurfs, sondern liefert auch eine erste ausführliche Analyse der Formulierungen und der dahinterstehenden Bedeutung—in einer Mammutarbeit von der Präambel bis zum finalen Artikel.
Da wir glauben, dass ein solch grundsätzliches Thema wie neue digitale Grundrechte einer ausführlichen öffentlichen Diskussion bedarf, veröffentlichen wir Geuters Kommentar hier in leicht abgeänderter Fassung. Es ist wichtig zu betonen, dass es sich bei dem Motherboard vorliegenden Charta-Text nur um eine Entwurfsfassung vom 6. November handelt—vor der Veröffentlichung könnten also durchaus noch Änderungen an dem Text vorgenommen worden sein, die hier noch nicht dokumentiert sind.
Einleitende Anmerkung
Der vorliegende Entwurf soll am 1. Dezember in allen großen Zeitungen erscheinen—teils als Gastbeitrag, teils als Werbung so mein Informationsstand. So soll dem Dokument Wucht und scheinbare Legitimation mitgegeben werden, um es dann innerhalb der EU als Primärrecht zu etablieren.
Im Laufe des Abends des 28. Novembers wurde mir ein Entwurf des Dokumentes, welches bald mit so prominenten wie in ihrer Zusammenstellung skurrilen Unterzeichnenden wie unter anderem Jan Philipp Albrecht, Byung-Chul Han, Christoph Keese, Sascha Lobo, Frank Rieger und natürlich Juli Zeh in diversen Leitmedien publiziert werden soll, zugespielt. Ich habe länger darüber nachgedacht, ob und inwieweit ich diesen Text kommentieren sollte. Einerseits haben Zeit Stiftung, Politik und diverse Akteure aus der bildungsbürgerlichen Elite viel Zeit und Geld investiert, um eine Kampagne zu planen und umzusetzen, weshalb ich nicht leichtfertig mit solchen Inhalten umgehen möchte.
Andererseits soll das Dokument zu einem Primärrecht innerhalb der EU entwickelt werden, das heißt, es soll dort quasi “Verfassungsrang” bekommen. Aufgrund dieses Anspruchs der Verfassenden und Unterzeichnenden sowie aufgrund der offensichtlichen Mängel des Dokumentes habe ich mich entschieden, mich im Rahmen dieses Kommentars auf den mir geleakten Primärtext zu beziehen und nicht nur abstrakt über nicht greifbare Inhalte zu schreiben.
Dieser Text wird sehr lang. Es tut mir leid. Für alle die, die es bis zum Ende durchhalten, gibt’s ein Bild eines niedlichen Otters!
Die Version, die mir zur Verfügung steht, wurde am 6.11.2016 aktualisiert und trägt das Label der Zeit Stiftung. Zitate aus dem Originaltext werden im folgenden kursiv markiert und eingerückt als Block unter einer jeweiligen Überschrift veröffentlicht. Meine persönlichen Kommentare finden sich jeweils unter dem Textfragment.
Der Einordnung wegen ist es wichtig festzustellen, dass meine Kommentare hier nur die ersten, offensichtlichen Beobachtungen und Einordnungen sein können. In den folgenden Tagen wird sicherlich noch über fast jeden der vorliegenden Paragraphen im Detail zu reden sein. Des weiteren ist mir wichtig, explizit festzustellen, dass ich kein Jurist bin. Für juristische Auslegungen der Texte freue ich mich auf Beiträge von Menschen mit mehr Erfahrung auf dem Gebiet. Meine Kommentare hier sind nur als persönliche, journalistische Einordnungen eines politischen Informatikers zu betrachten.
PRÄAMBEL
IM BEWUSSTSEIN, DASS
die Anerkennung der angeborenen Würde und der gleichen und unveräußerlichen Rechte aller Menschen die Grundlage von Freiheit, Gerechtigkeit und Frieden in der Welt bildet,
die zunehmende Digitalisierung zur Veränderung der Grundlagen unserer Existenz führt,
es im digitalen Zeitalter zu enormen Machtverschiebungen zwischen Einzelnen, Staat und Unternehmen kommt,
im digitalen Zeitalter eine zivilgesellschaftliche Debatte entstanden ist und weitergeht,
Grundrechte und demokratische Grundprinzipien im digitalen Zeitalter auf neue Herausforderungen und Bedrohungen treffen,
technischer Fortschritt stets im Dienste der Menschheit zu stehen hat,
die Gestaltung der digitalen Welt auch eine europäische Aufgabe sein muss, damit es im europäischen Verbund gelingt, Freiheit, Gerechtigkeit und Solidarität im 21. Jahrhundert zu erhalten;
IN ANERKENNUNG
der Allgemeinen Erklärung der Menschenrechte,
der Europäischen Menschenrechtskonvention,
der Charta der Grundrechte der Europäischen Union,
der Grundrechts- und Datenschutzstandards der Europäischen Union und ihrer Mitgliedstaaten;
FEST ENTSCHLOSSEN
Grundrechte und demokratische Prinzipien auch in der digitalen Welt durch die Herrschaft des Rechts zu schützen,
staatliche Stellen und private Akteure auf eine Geltung der Grundrechte in der digitalen Welt zu verpflichten,
auf diese Weise das Fundament einer rechtsstaatlichen Ordnung im digitalen Zeitalter zu schaffen,
das Digitale nicht als Quelle der Angst, sondern als Chance für ein gutes Leben in einer globalen Zukunft zu erfassen;
ERKENNT DIE UNION DIE NACHSTEHEND AUFGEFÜHRTEN RECHTE, FREIHEITEN UND GRUNDSÄTZE AN:
Die Überschrift ist etwas sperrig und auch eigenwillig. Sind die Grundrechte digital? Was bedeutet es, dass Grundrechte “digital” sind? Es scheint eher um die Grundrechte der Menschen im Digitalen zu gehen, aber warum müssen die eigentlich unterschiedlich sein von den “richtigen” Grundrechten? Habe ich im Rahmen einer Interaktion mehr Rechte nur weil sie digital vermittelt stattfindet anstatt auf Papier oder verbal? Grundrechte sind Grundrechte, weil sie grundlegend sind, losgelöst von “Implementierungsdetails”.
Das Digitale als Besonders zu betrachten ist in der Blase aus Startups und den Gewinnern der Digitalisierung natürlich sehr verbreitet—insbesondere um sich bestehenden Normen und Gesetzen zu entziehen—aber warum sollte man das mitspielen? Die Grundrechtecharta zu überarbeiten ist immer wieder notwendig: Neue Bedrohungen oder Erkenntnisse erzwingen eine Erweiterung oder Präzisierung. Aber warum hier eine Trennung vorgenommen wird, anstatt die bestehenden Chartas upzudaten, scheint eine Sackgasse zu sein.
Zu Präambeln kann man sehr viel oder sehr wenig sagen und für eine echte Exegese fehlt mir im Rahmen dieses Textes die Zeit. Trotzdem sind natürlich diverse Aspekte dieser Einleitung sehr spannend: Die Veränderung der Grundlagen menschlicher Existenz anzuerkennen ist ein guter Schritt, genau wie die Identifikation der Machtverschiebungen im Rahmen der aktuell gelebten Ausgestaltung des Digitalen. Warum man aber nicht den logischen Schritt geht, diese Dinge zusammenzubringen, sondern sie nebeneinander stellt, als wären sie unverbunden, wirkt kurzsichtig. Und natürlich ist es im Rahmen einer europäischen Gesetzgebung wichtig zu betonen, dass man sich als gesetzgebendes Organ legitimiert fühlt, eben solche Regeln zu definieren und durchzusetzen.
Im Angesicht einer durch Vernetzung zunehmend internationalen und weniger durch Staaten kontrollierten Welt Regeln aufstellen zu wollen, die potentiell die gesamte Welt betreffen ohne dabei irgendwie auch nur die Existenz von Rechtsnormen und -vorstellungen außerhalb der EU zur Kenntnis zu nehmen, mag rein juristisch und legislativ natürlich tradiert sein, hilft aber im Konkreten den Menschen kein Stück weiter. Außer natürlich, man trennt den regulierten Raum vom globalen Datennetz und schafft damit ein Schengennetz.
Wir sollten die Bedeutung einer Präambel nicht überbewerten – oft geht es in einem solchen Textfragment ja eher darum, die Lesenden in die richtige emotionale Stimmung zu versetzen – trotzdem klingen hier schon erste Missverständnisse und problematische Betrachtungsweisen an, deren konkrete Probleme wir in den folgenden Artikeln noch deutlicher sehen werden.
Art. 1 (Würde)
(1) Die Würde des Menschen ist auch im digitalen Zeitalter unantastbar. Sie muss Ziel und Zweck aller technischen Entwicklung sein und begrenzt deren Einsatz.
(2) Neue Gefährdungen der Menschenwürde ergeben sich im digitalen Zeitalter insbesondere durch Big Data, künstliche Intelligenz, Vorhersage und Steuerung menschlichen Verhaltens, Massenüberwachung, Einsatz von Algorithmen, Robotik und Mensch-Maschine Verschmelzung sowie Machtkonzentration bei privaten Unternehmen.
(3) Die Rechte aus dieser Charta gelten gegenüber staatlichen Stellen und Privaten
Redundanz ist nicht immer schlecht. Die Wiederholung eines zentralen Gedankens kann seine Wichtigkeit unterstreichen, unterschiedliche Formulierungen desselben Konzeptes können es in allen seinen Facetten illustrieren. Und doch wirkt die Formulierung der Würde des Menschen auf mich hier irritierend. Zum Einen drückt sich hier der klassische digitale Dualismus, dem so viele Internet-Debatten zum Opfer fallen, aus: Die Welt des Digitalen und die des “Analogen” werden hart getrennt und als fundamental unterschiedliche Welten gedacht, in denen andere Gesetze gelten, Das ist natürlich falsch und die internationale Debatte hat sich eigentlich auch von diesem Diskursrudiment verabschiedet, in diesem Artikel scheint der digitale Dualismus allerdings wieder hindurch. Das Grundgesetz stellt die Würde des Menschen schon zu recht als unantastbar fest. Das Digitale ist Teil der Welt, somit gilt die Würde des Menschen dort als unantastbar. (1) ist reine Wiederholung und drückt ein fundamentales Missverständnis über die Welt aus.
Es bildet sich auch ein verstörender Widerspruch zwischen dem ersten Absatz des ersten Artikels und der Überschrift: Erst sollte es um Grundrechte im Digitalen gehen, jetzt dann um “Zeitalter”. Sollen also doch die allgemeinen Grundrechte ersetzt werden? Es scheint im Dokument eine gewisse Konfusion darüber zu herrschen, was man eigentlich will. Was soll hier genau reguliert werden? Was nicht?
(2) ist ein spannender Artikel. Eigentlich könnte man fast alles streichen bis auf die Erkenntnis der Problematik unkontrollierter und unkontrollierbarer Machtkonzentration und das ganze in bestehende Rechtsprechung integrieren. “Big Data”, KI, “Vorhersage und Steuerung menschlichen Verhaltens” stehen hier als Omen des Bösen im Raum, undefiniert und so unfassbar, dass jeder und jede sich bedroht fühlen kann ohne genau zu wissen, worum es geht. Und was soll “Einsatz von Algorithmen” sein? Die schriftliche Division, wie wir sie in der Grundschule lernen ist ein Algorithmus. Unterdrückt uns die Division? Und warum ist die Steuerung menschlichen Verhaltens eine “neue Gefährdung”, wenn soziale, ökonomische und rechtliche Zwänge die identische Auswirkung auf das Leben der Menschen haben, ganz egal ob Rechenmaschinen im Spiel sind? Man hätte auch “Computergedöns” schreiben können. “Computergedöns ist auch manchmal gefährlich”. Das stimmt, ist aber nicht das eigentliche Problem.
Immerhin geht dieser Ansatz über Dokumente wie die EU-Datenschutz-Grundverordnung hinaus und versucht, konsistent gegenüber allen machtausübenden Entitäten, Staaten und Nichtstaaten, zu sein. Ein Schritt voran immerhin.
Art. 2 (Freiheit)
Jeder hat ein Recht auf freie Information und Kommunikation. Dieses Recht ist konstitutiv für die freie Gesellschaft. Es beinhaltet das Recht auf Nichtwissen.
Freiheit ist ein tolles Wort. Nimmt man 10 Menschen und fragt sie zu Freiheit, bekommt man 14 unterschiedliche Definitionen oder Auffassungen davon, was das sein soll. Klingt alles gut, wirklich. Man darf sich seine Informationen suchen, wo man will und man darf kommunizieren, mit wem man will. Das ist grundsätzlich richtig und auch schon genauso Teil unseres westlichen Werte- und Grundrechtskanons. Ob das eine Gesellschaft wirklich in irgendeiner Form “frei” macht, ist natürlich eine ganz andere Frage, die wir später noch beleuchten werden. Dass das Recht auf Nichtwissen (also das Recht, bestimmtes Wissen nicht haben zu wollen) eingeschlossen ist, folgt aus dem Recht auf freie Information. Der Artikel ist wichtig, klingt aber mächtiger als er ist: Ohne eine Charakterisierung des Begriffes “Freiheit” bedeutet das alles nichts. Soll Freiheit hier positiv oder negativ definiert werden oder beides? Geht es darum, dass Informationen nicht unterdrückt werden sollen oder dass sie explizit Menschen bereitgestellt und zugänglich gemacht werden sollen? Beides mag ähnlich klingen, die Verständnisse sind aber fundamental unterschiedlich.
Art. 3 (Gleichheit)
(1) Jeder Mensch hat das Recht auf eine gleichberechtigte Teilhabe in der digitalen Sphäre. Es gilt das in der Europäischen Grundrechte-Charta formulierte Diskriminierungs-Verbot.
(2) Die Verwendung von automatisierten Verfahren darf nicht dazu führen, dass Menschen vom Zugang zu Gütern, Dienstleistungen oder von der Teilhabe am gesellschaftlichen Leben ausgeschlossen werden. Dies gilt insbesondere im Bereich Gesundheit, Schutz vor elementaren Lebensrisiken, Recht auf Arbeit, Recht auf Wohnen, Recht auf Bewegungsfreiheit und bei Justiz und Polizei.
(1) ist eine Aussage, an der ich wenig zu kritisieren habe. Würde mich freuen, wenn wir dieses Recht auf Teilhabe auch greifbar ausgestaltet sähen: Zu sagen “jeder Mensch muss einen Internetanschluss mieten dürfen” erfüllt formal die Aussage, ist aber etwas ganz anderes als zu sagen “Jeder Mensch hat ein Anrecht auf einen adäquaten Zugang zum Internet”. Das Diskriminierungsverbot der Grundrechte Charta ist leider zu oft blind gegenüber ökonomischer Diskriminierung. “Teilhabe”, die man sich leisten können muss, ist nicht gleich.
(2) ist komisch. “Automatisierte Verfahren” dürfen Menschen nicht ausschließen. Ok. Ich packe also ans Ende des Verfahrens einen Menschen, der “Ja” oder “Nein” klickt. Natürlich hat dieser Mensch die völlige Freiheit bei seiner Entscheidung. Entscheidet er oder sie aber gegen das automatisierte Verfahren, gegen den Vorschlag der Maschine, wird er oder sie sich erklären müssen und irgendwann potentiell Ärger bekommen. Wir kennen solche Verfahren seit vielen, vielen Jahren: Wenn die Schufa sagt, dass ich keinen Kredit bekomme, dann kann der Berater oder die Beraterin bei der Bank natürlich anders entscheiden, aber warum sollte er oder sie? Das Risiko wandert auf den oder die Berater/in anstelle auf die anonyme Maschine.
Hier fehlt wieder das Denken bis an die Wurzel, man bleibt bei Technikgedöns stehen: Art. 3 soll ja nicht Ausschluss verbieten. Ausschluss ist offensichtlich—sogar grundsätzlich—OK. Es geht also darum, wie man Ausschluss (zu Verstehen als Macht) umsetzen will. Aber ob das Verfahren dabei automatisch (Computer sagt: Nein) oder halbautomatisch (Mensch sagt, weil Computer sagt: Nein) oder sogar ganz manuell stattfindet, ist dabei gar nicht so relevant. Die wirklich Frage, die hier zu stellen und zu diskutieren wäre, ist, ob man mit Ausschluss überhaupt einverstanden ist und wenn ja, mit welchem. Ausschluss muss in einer demokratischen Gesellschaft—wenn überhaupt—durch definierte, legitimierte und transparente Prozesse erfolgen. Wie diese dann ablaufen ist Implementierungsdetail.
Art. 4 (Innere und äußere Sicherheit)
(1)Im digitalen Zeitalter werden innere und äußere Sicherheit auf neue Weise bedroht. Bei der Ausübung der Schutzverantwortung des Staates sind enge rechtsstaatliche Grenzen zu beachten.
(2) Sicherheitsbehörden dürfen nicht auf durch Private erhobene Daten zugreifen. Ausnahmen sind nur auf gesetzlicher Grundlage zum Schutz besonders wichtiger Rechtsgüter zulässig.
(3) Eine anlasslose Massenüberwachung findet nicht statt.
(4) Waffensysteme dürfen nicht vollautomatisiert eingesetzt werden.
Was die Pflicht, staatliche Macht zu kontrollieren und zu begrenzen mit “neuen Bedrohungen” zu tun hat, ist ein Thema, über das man lange reden könnte. Eigentlich ist es ja eher so, dass diese Aussage wiederum so grundlegend ist, dass die Art der Bedrohungen für ihre Richtigkeit in einer demokratischen Gesellschaft irrelevant ist: Staatliche Macht muss kontrolliert und begrenzt sein. No matter what.
Dieser ganze Artikel soll so ein Anti-Überwachungsartikel sein. (2) soll die Daten, die bei privaten Anbietern liegen vor staatlichem Zugriff schützen – außer es gibt eine Grundlage dafür und es geht um den Schutz besonders wichtiger Schutzgüter. (3) unterbindet auch noch die “anlasslose Massenüberwachung”. Ja BÄM! Können die NSA, der BND und wie sie alle heißen ja einpacken. Leider gibt es ein magisches Wort, mit dem man beides aushebeln kann: Terror. Terror bedroht immer irgendwie Menschenleben. Und wenn die Bedrohung nicht konkret ist, dann hat man nur nicht genau genug hingesehen. Das ist nicht meine Logik, sondern die des Sicherheitsapparates und seiner Organisationen. Hier hat sich nichts bewegt, das ist der Status Quo. Der Status Quo, in dem Geheimdienste über diverse Abkommen im lustigen Daten-Round-Robin quasi überall mithören.
(3) insbesondere klingt toll, sagt aber nichts. Jede Massenüberwachung, die wir kennen, ob aktuell oder historisch hat einen Anlass. Sicherlich kann man über Legitimitäten diverser Anlässe streiten, aber das illustriert nur wieder, dass hier nicht wirklich zu Ende gedacht wurde. Worum geht des denn wirklich? Was will man erreichen? Was soll eingeschränkt werden?
(4) ist ein Absatz, den ich gerne unterschreibe, auch wenn die Betrachtungen zu Artikel 3 schon illustrierten, dass der Mensch am Knopf im Zweifel eben doch drückt, wenn das System ihm sagt, dass nun zu drücken sei. Am Ende will niemand Schuld sein, wenn die Person, die die Drohne verschont hat, am nächsten Morgen ein Attentat begeht. Wie gesagt: Ich stimme dem Absatz zu, aber er verkennt wie zuvor, dass gilt: halbautomatisches System + soziale Macht/Zwangstruktur = quasiautomatisches System.
Art. 5 (Meinungsfreiheit und Öffentlichkeit)
(1) Jeder hat das Recht, in der digitalen Welt seine Meinung frei zu äußern. Eine Zensur findet nicht statt.
(2) Digitale Hetze, Mobbing sowie Aktivitäten, die geeignet sind, den Ruf oder die Unversehrtheit einer Person ernsthaft zu gefährden, sind zu verhindern.
(3) Ein pluraler öffentlicher Diskursraum ist sicherzustellen.
(4) Staatliche Stellen und die Betreiber von Informations- und Kommunikationsdiensten sind verpflichtet, für die Einhaltung von Abs. 1, 2 und 3 zu sorgen
Artikel 5 ist einer der dicksten Klopper der Charta, insbesondere, weil er ein aktuelles Thema und Problem aufnimmt und scheinbar elegant löst: Hate Speech. Viel wurde in den letzten Monaten geschrieben zum “Hass im Netz” und was Facebook und andere da nun zu tun hätten und wer Schuld sei (Hinweis: Immer die, die Hass verbreiten und mobben).
(1) ist dabei harmlos: Es gibt keine Zensur, man darf seine Meinung äußern (hat das schon jemand Herrn Orban in Ungarn erzählt?) Zensur ist hier offensichtlich vor allem als staatlicher Eingriff gedacht, der vor der Publikation gilt. Alles wie gehabt.
(2) ist nun spannender, weil hier das Passiv auf die Bühne tritt. “Digitale Hetze”, “Mobbing” usw sind zu verhindern. Aber selbst wenn wir mal über den Mangel einer Definition von “Hetze” und “Mobbing” hinwegsehen und auch die Frage am Wegesrand stehen lassen, weshalb nur “digitale Hetze” zu verhindern ist und nicht einfach Hetze im Allgemeinen, müssen wir über den Begriff “verhindern” sprechen. “Verhindern” ist präventiv, greift also vor der Tat ein (“bestrafen” zum Beispiel ist immer nach dem Vergehen). Wie soll denn so eine präventive Handlung aussehen? Soll Facebook Wortlisten pflegen mit Begriffen oder Floskeln, die “Hassrede” sind und daher nicht gepostet werden dürfen? Wer würde denn solche Wortlisten pflegen? Wenn eine staatliche Stelle so was pflegt, wo wäre dann der Unterschied zu einer Zensur? Und wenn es keine staatliche Stelle pflegt: Wer kontrolliert das? Wer gibt der Liste demokratische Legitimität?
Natürlich muss es keine Liste aus Worten sein, aber der präventive Eingriff hier ist eine sehr gravierende Veränderung der Interpretation der Rolle einer sozialen Publikationsplattform. Und wie ist das mit diesem Blog? Würde ich auf meinem Blog “hetzen”, müsste der Server-Hoster meinen Rechner vom Netz nehmen? Bisher reagieren wir auf Verstöße gegen Regeln mit Sanktionen, hier wird eine undefinierte Form der Prävention postuliert, die potentiell massiv demokratieschädigend sein kann.
Nicht falsch verstehen: Ich bin der Überzeugung, dass wir viel gegen Hate Speech und Mobbing tun müssen und dass auch Plattformanbieter dort gefordert sind, indem sie den Nutzenden Werkzeuge an die Hand geben, Verstöße zu melden, Mobbende zu blocken und irgendwann auch übergriffige Nutzende aus der Plattform auszuschließen. Ich bin nur von dem hier vorgestellten, diffusen Modell nicht nur nicht überzeugt sondern eher besorgt. Rein strukturell drängen sich hier Vergleiche auf zu der Art und Weise wie Sicherheitsbehörden diverse Grundrechtseingriffe mit Terrorprävention legitimieren. Mir ist der Sinn darin, diese argumentative Tür hier auch zu öffnen, nicht klar.
(3) klingt gut. Es ist sicherzustellen, dass es einen öffentlichen – also für alle erreichbaren—und pluralen, also von Meinungsvielfalt geprägten—Diskursraum gibt. Kann man einfach aufs Internet zeigen und gut ist, da kann ja jeder und jede öffentlich alles reinschreiben. Aber ob die Ausblendung der Realität zentralisierter Aufmerksamkeitsströme hier das gewollte Ergebnis bringt, ist zweifelhaft.
Natürlich hatten wir immer Leitmedien, die sehen nur heute anders aus als früher. Ich frage mich aber, ob eine solche “der Aufmerksamkeitsmarkt wirds schon richten” Position dem Anspruch gerecht wird. Das vorliegende Dokument wird am 01. Dezember wohl in fast allen großen Deutschen Zeitungen abgedruckt sein (als Gastbeitrag oder Werbung, aber ob die Lesenden das immer richtig parsen?). Ist das der gewollte plurale Diskursraum, in dem die Zeit Stiftung und ein paar gut vernetzte Einzelpersonen einen Text in die öffentliche Wahrnehmung pressen? Dieser Kommentar wird nur von 3-5 Leuten gelesen werden. Aber 3-5 sind ja auch schon Mehrere. Plural.
(4) nun macht aus dem Artikel eine Bombe. Es werden staatliche Stellen aber auch private Anbieter von Diensten verpflichtet, (1)-(3) durchzusetzen. Vor allem in (2) und (3) liegt hier der Hund begraben: Einerseits ist das Ziel hier sehr weit gefasst. Was ist mit der Person, die für sich und 5 Freunde einen Mailserver (einen Kommunikationsdienst) hostet? Muss diese Person nun alle Mails vorm Versenden lesen und checken, dass keine Hate-Mail drin steckt? Muss sie zum Nachweis die Mail als Kopie aufheben, selbst wenn der oder die Versendende die eigene Kopie löscht?
Der Ausgleich zwischen “freie Meinungsäußerung” und “Prävention von Hate Speech” ist nie hundertprozentig, es wird dort Konfliktfälle geben. Die Auflösung solcher Konfliktfälle wird immer Beweise brauchen, was dazu führen wird, dass jede Kommunikation durch Anbietende gebackupt werden muss, um sicherzustellen sich gegen den Vorwurf der Zensur schützen zu können. Dass diese quasi Verpflichtung kleine Anbieter aus dem Markt drängt und nur die Marktmacht der Großen, die sich solche Prozesse leisten können, zementiert, ist hierbei nicht mal das größte Problem: Rechtsdurchsetzung wird hier auf private Entitäten verschoben. Irgendwelche Firmen (irgendwo auf dem Planeten) sollen gezwungen werden, irgendwie den Rechtsvorstellungen der EU entsprechend, Inhalte vor ihrer Publikation zu filtern.
Ich habe hier nur einen Bruchteil der diversen Probleme angerissen. Artikel 5 ist für die Meinungsfreiheit sehr gefährlich, insbesondere, weil der Eingriff grundsätzlich vor das Vergehen geschoben wird. Gehen wir mal von einer Durchsetzbarkeit dieser EU-Regeln auf dem ganzen Globus aus: Würde eine Plattform wirklich für die Freiheit des Einzelnen auf Publikation kämpfen und das Risiko eingehen, bestraft zu werden? Nein, Dienstanbieter würden eher strenger agieren: Better safe than sorry. Und wo fängt das filtern überhaupt an? Muss mein DSL Provider meine Inhalte schon vorfiltern, ist ja immerhin auch Kommunikationsdienstleister? Darf ein Dienstleister meine Verschlüsselung brechen um seinen Verpflichtungen der Prävention nachzukommen? Hier entstehen massive Probleme auf die nicht im Ansatz eingegangen wird. Mit Meinungsfreiheit hat das nicht mehr viel zu tun.
Art. 6 (Profiling)
Profiling durch staatliche Stellen oder Private ist nur auf gesetzlicher Grundlage zulässig
Das Bilden von persönlichen Profilen ist nur auf gesetzlicher Grundlage zulässig. Hier wurden so EU-Datenschutz-Grundverordnungstextstummel recycled. Was genau ein Profil charakterisiert bleibt schwammig: Ist es ein Profil, wenn ich anonymisierte Massendaten sammle, Muster erkenne, Cluster bilde und diese Cluster und Muster dann auf neue Personen anwende? Die Informationen, die ich nutze, haben ja in dem Falle nichts mit der Person, auf die sich sie anwende, zu tun? Ich halte das hier für unterspezifiziert und in seinem Ziel diffus. Profiling ist so ein Totem für “böses Internet”, aber was genau hier erreicht werden soll, bleibt unklar. Ist eher so ein Artikel, der sich auf aktuelle Modeworte beziehen will—was für Grundrechtsdarstellungen eher problematisch ist.
Art. 7 (Algorithmen)
(1) Jeder hat das Recht, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung für die Lebensführung zu sein. Sofern automatisierte Verfahren zu Beeinträchtigungen führen, besteht Anspruch auf Offenlegung, Überprüfung und Entscheidung durch einen Menschen. Die Kriterien automatisierter Entscheidungen sind offenzulegen.
(2) Insbesondere bei der Verarbeitung von Massen-Daten sind Anonymisierung und Transparenz sicherzustellen.
Der Begriff Algorithmus hat eine sehr beeindruckende Begriffsveränderung hinter sich. Ursprünglich einfach Bezeichnung für eine strukturierte Beschreibung eines Vorgehens zur Erreichung eines definierten Zieles ist ALGORITHMUS heute der Begriff, mit dem man in bildungsbürgerlichen Kontexten Digitalkompetenz performt. Über Automatisierung und soziale Kontexte haben wir nun schon mehrfach gesprochen. Ich bin immer noch nicht davon überzeugt, dass diskriminierende Entscheidungen dadurch problematisch werden, dass sie durch ALGORITHMEN—also von Menschen in Code gegossene Modelle, Annahmen und Vorurteile, denn wie jedes andere Artefakt sind auch Algorithmen nie “neutral”—durchgeführt werden. Die Diskriminierung ist das Problem. Hier ist wieder zu kurz gedacht: Warum die Beschränkung auf Automatisierung? Worum geht es eigentlich? Menschen sollen nicht zu Objekten werden ohne legitimen Grund. Aber was wären denn Gründe? Automatisierung ist hier weitgehend Nicht-Kriterium.
Der zweite Teil wiederum ist interessant: Wenn ein System (automatisch oder hoffentlich auch semiautomatisch) Entscheidungen trifft, die mich “beeinträchtigen”, dann habe ich Anspruch darauf, dass mir das offengelegt wird, ein Mensch das überprüft und neu entscheidet. Über den Teil mit der Entscheidung haben wir nun schon oft geredet, betrachten wir den “Appeal-Prozess”. Ich beschwere mich und Jemand(tm) guckt sich das an. Was guckt der sich denn an? Den Code des Algorithmus? Die 14 Bazillionen Gigabyte aus Personendaten, auf deren Basis diese Entscheidung durch ein neuronales Netz getroffen wurde? Bei allen Algorithmen die auf nicht-trivialen Datenmengen arbeiten (heute ein Großteil) oder beispielsweise Strukturen wie neuronalen Netzen wird eine solche Prüfung kaum durchführbar sein.
(2) ist nur lustiges Begriffsbingo. Was soll anonymisiert werden bzw. auf welche Kriterien hin? Bisher wurde noch jedes Dataset, welches nicht bis zur Nutzlosigkeit verwaschen wurde, de-anonymisiert, was sind also Erfolgskriterien? Wem gegenüber anonym? Und was soll hier transparent sein? Und wem gegenüber?
Art. 8 (Künstliche Intelligenz)
(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.
(2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.
(3) Für die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein.
(4) Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.
(1) Können? Dürfen? Sollen? Können tun KIs das auch, wenn ihre Aussagen dementsprechend aufgenommen werden: Normativität entsteht ja vor allem durch die Interpretation einer Aussage. Das Problem bei KI ist oft, dass ein SciFi-Verständnis zugrunde gelegt wird: Magische Systeme sind plötzlich brilliant und autonom. KI heute ist aber eigentlich vor allem automatisierte Statistik. Natürlich möchte man da gegebenenfalls regulieren, aber nicht der KI wegen, sondern, weil Entitäten auf Basis von Daten und Statistik Entscheidungen über Menschen treffen und damit massive Macht ausüben. Es geht dabei nicht um KI.
(3) hingegen finde ich gut: Wer Agenten ins Netz, den öffentlichen Raum, loslässt, muss gegebenenfalls für ihre Aktionen gerade stehen. Fordere ich seit Jahren.
(4) ist etwas komisch, gerade im Kontext KI: Welche essentielle Infrastruktur läuft heute auf einer KI? Mir fällt keine ein. Dass es für jedes essentielle System ein Backup mit einer anderen Implementierung geben muss, ist klar, aber der KI Kontext hier ist eher so ein Science-Fiction-Film Szenario. Tut nicht weh, aber bis zum Terminator dauert’s noch etwas.
Art. 9 (Transparenz)
(1) Die Informationen staatlicher Stellen müssen öffentlich zugänglich sein.
(2) Das Transparenzgebot gilt auch gegenüber Privaten, sofern diese über Informationen verfügen, die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind
Transparenzgesetze finde ich gut, auch wenn das reine Vorhandensein von Daten/Informationen7 noch keinen gesellschaftlichen Mehrwert hat: Daten müssen auch nutzbar sein (Lizenz, Datenstruktur etc). Insbesondere fehlt auch ein Hinweis darauf, dass dieser Zugang nicht beispielsweise durch Gebühren über gebühr (Wortwitz, wunderbar) beschränkt werden darf.
(2) als Auskunftsanspruch gegenüber insbesondere mächtigen Plattformen finde ich auch gut, auch wenn da wiederum der Nutzwert der Informationen in Frage zu stellen ist: Facebook gibt heute schon alles, was sie über eine Person haben, raus, nur in nicht nutzbarer Form. Insgesamt sind die Daten einer Person in einem sozialen Netzwerk zu großen Teilen nur in Relation zu den Daten anderer interpretierbar und nützlich.
“Freiheitsverwirklichung” ist hier auch ein etwas schwammiger Begriff. Welche Szenarien will man abdecken? Ist meine Freiheit schon dadurch eingeschränkt, dass ich nicht genau weiß, was die Menschen, die die Charta in die Zeitungen platziert haben, dafür an Geld aufgewendet haben? Das beeinflusst ja meinen Umgang mit dem Text und meine Wahrnehmung meiner eigenen Wirkmacht… Ich halte Freiheitsverwirklichung hier für einen unterdefinierten Gummibegriff, der zu wenig aussagt.
Art. 10 (Unversehrtheit der Wohnung)
Jeder hat das Recht, in seiner Wohnung frei und unbeobachtet zu leben
Ich sehe nicht, wo das hier irgendwie über bestehende Regelungen hinaus geht.
Art. 11 (Datenschutz und Datensouveränität)
(1) Jeder hat das Recht auf den Schutz seiner Daten und die Achtung seiner Privatsphäre.
(2) Jeder hat das Recht, über seine Daten selbst zu bestimmen. Personenbezogene Daten dürfen nur nach Treu und Glauben und für festgelegte Zwecke erhoben und verarbeitet werden, wenn dies für das jeweilige Nutzungsverhältnis erforderlich ist und eine vorherige Einwilligung erfolgt ist oder auf gesetzlicher Grundlage. Die Einwilligung muss ausdrücklich und informiert erfolgen. Nutzungsverhältnisse müssen fair und transparent gestaltet werden.
(3) Die Einhaltung dieser Rechte wird von einer unabhängigen Stelle überwacht.
(4) Anbieter von Diensten oder Produkten dürfen nur solche Daten erheben und verarbeiten, welche für den Zweck der Benutzung erforderlich sind. Die Grundsätze von privacy by design und privacy by default sind einzuhalten.
Ich habe in meinem Leben schon mehr Über Datenschutz geschrieben, als einem glücklichen Leben zuträglich sein kann. Im Prinzip steht hier nochmal die EU-Datenschutz-Grundverordnung Light mit allen Problemen, die sich daraus ergeben. Schade ist nur, dass aus den Kommentaren zur EUDataP offensichtlich nicht gelernt wurde. Ich verweise aufmeine Kommentare zur EUDataP. Man ist halt wieder in die Falle der “Einwilligung” gelaufen, die für die meisten Fälle heute komplett hohl ist: Kaum jemand hat die Kompetenzen und Informationslage um Datenverarbeitung ernsthaft einzuwilligen.
Einwilligung ist der Knopf am Ende eines langen Textes, den man drückt, um weitermachen zu können. Sie ist erstens kein geeignetes Werkzeug und verschiebt zweitens die Verantwortung einseitig auf die Einzelpersonen, die in den meisten Datenverarbeitungskontexten die Entität mit der geringsten Macht und der schlechtesten Informationslage ist. “Privacy by Design” und “Privacy by Default” sind beliebte Datenschützermeme die weitgehend ohne Niederschlag in der realen Welt sind.
Art. 12 (Informationelle Selbstbestimmung)
(1) Die Unversehrtheit, Vertraulichkeit und Integrität informationstechnischer Systeme ist sicherzustellen.
(2) Jeder hat ein Recht auf Verschlüsselung seiner Daten
Hier kommt der cyberlibertäre Einschlag zum Tragen der sich auch in der Liste der Unterzeichnenden findet: Natürlich haben Menschen das Recht, ihre Daten zu verschlüsseln. Und grundsätzlich sind Systeme in ihrer Integrität auch zu schützen. Die Frage ist aber natürlich, ob es nicht doch Gründe gibt, nach denen es legitime Gründe gibt, eine Verschlüsselung zu brechen oder eine Unterhaltung abzuhören (mit dementsprechender demokratischer Kontrolle). Ich bin weder Freund der Sicherheitsbehörden noch der Geheimdienste, aber alles Verschlüsselte als unantastbar zu labeln, ist mir dann auch zu einfach.
Art. 13 (Datensicherheit)
(1) Jeder hat ein Recht auf Sicherheit von informationstechnischen Systemen und der durch sie verarbeiteten Daten. Dabei ist höchstmöglicher Schutz zu gewährleisten.
(2) Identitätsdiebstahl und Identitätsfälschung sind zu bekämpfen.
Bei (1) ist zwar “höchstmöglich” etwas unbelastbar (kann ich—sobald ein neuer Algorithmus zur Verschlüsselung herauskommt —meinen Dienstanbieter verklagen, weil dieser den Algorithmus nicht direkt umsetzt? Wenn ein Dienstanbieter aus irgendwelchen blöden Gründen ein unsicheres Stück Software nicht updaten kann, ist der Schutz dann trotz Löchrigkeit noch höchstmöglich?) aber die grundlegende Stoßrichtung passt.
Art. 14 (Wahlen)
Das Recht, an Wahlen und Abstimmungen teilzunehmen, darf nicht an den Zugang zu digitalen Medien gebunden werden
Wahlen und Abstimmungen sollen immer auch nicht-digital gehen. Soll mir recht sein. Wird dann darauf hinauslaufen, dass Papierzettel per OCR digitalisiert und dem Softwaresystem zugeführt werden, aber ok. Tut niemandem weh.
Art. 15 (Freier Zugang)
(1) Jeder Mensch hat das Recht auf freien, gleichen und anonymen Zugang zu Kommunikationsdiensten, ohne dafür auf grundlegende Rechte verzichten zu müssen. Das Internet ist Bestandteil der Grundversorgung.
(2) Jeder hat das Recht auf eine nicht-personalisierte Nutzung digitaler Angebote.
Ja. Jeder Mensch hat ein Recht auf freien und gleichen Zugang zum Netz. Aber müssen Kommunikationsdienste wirklich anonymen Zugang gewähren? Insbesondere um gegen Hate-Speech vorzugehen kann ja eine Bindung eines Accounts an reale IDs (Telefonnummer z.B.) hilfreich sein: So kann sich ein Mobber keine 50 Roboter-Accounts clicken. Die Idee, dass digitale Angebote immer auch nicht-personalisiert nutzbar sein müssen, ist Humbug: Facebook ohne Login ergibt keinen Sinn, da man ohne Login keine Kontakte haben kann. Die Personalisierung ist oft—aus inhaltlichen oder monetären Gründen—untrennbar mit Diensten verbunden. Dienstanbieter hier zu zwingen, einen potentiell wertlosen Dienstzugang zu bieten, halte ich für Datenschutztheater .
Art. 16 (Netzneutralität)
Netzneutralität ist zu gewährleisten. Dies gilt auch für Dienste, die den Zugang zur digitalen Sphäre vermitteln.
Netzneutralität ist kein optimaler Hebel, aber besser als nichts. Wenn man eine Charta schreibt, kann so etwas (so lange der freie und gleiche Zugang für alle auch gewährt bleibt und die Quality of Service Frage geklärt ist) auch rein um Missbrauch der Macht von Anschlussanbietern zu beschränken. Sinnvoller wäre vielleicht sogar eher ein Verbot, gleichzeitig Zugangs- und Contentanbieter zu sein.
Art. 17 (Pluralität und Wettbewerb)
In der digitalen Welt sind Pluralität und kulturelle Vielfalt zu gewährleisten. Offene Standards sind zu fördern. Marktmissbräuchliches Verhalten ist wirksam zu verhindern
Offene Standards zu fördern klingt gut und zwingt niemanden zu irgendwas, da freuen sich alle. An dieser Stelle finde ich sogar eher eine Verpflichtung von Entitäten gewissen Einflusses zu offenen Standards den richtigen Schritt. Weg von dem neoliberalen Marktgerede hin zum Schaffen von verlässlichen Interfaces, mit denen Menschen interagieren können. Das würde automatisch viele Fälle marktmissbräuchlichen Verhaltens aushebeln.
Mich stört hier vor allem “Markt”, wir sind ja nicht bei der FDP hier. Eigentlich geht es doch eher um Macht, von daher kann man das auch so benennen. Dann stimme ich sogar zu.
Art. 18 (Recht auf Vergessenwerden)
Jeder Mensch hat das Recht auf digitalen Neuanfang. Dieses Recht findet seine Grenzen in den berechtigten Informationsinteressen der Öffentlichkeit.
Ja, jeder Mensch hat ein Recht auf Neuanfang. Aber das “Recht auf Vergessenwerden” ist dafür kein sinnvolles Werkzeug. Ich habe das damals schon dargestellt, als dasselbe falsche Konzept in der EU Datenschutzgrundverordnung auftauchte. Es ist wieder Ausdruck des digitalen Dualismus in dessen Zuge man hier fürs Digitale Regulierungen fordert und implementiert, die man in anderen Bereichen des Lebens niemals akzeptieren würde. Die Kritik an dieser fixen Idee einiger Datenschützer wird seit Jahren vorgebracht und es ist bedauernswert, dass man sich wieder mal jeder Kritik und jedem Feedback verschließt.
Ein Recht auf Neuanfang ist eine kulturelle Praxis, die Etablierung einer Gesellschaft, die mit Fehlern umgehen kann und Menschen nicht abschreibt. Das erreicht keine Scheinlöschung von Daten, die dann nur die privaten Backups dieser Daten auf privaten Rechnern zu Kompromat hochjazzt.
Art. 19 (Besonders schutzbedürftige Personen)
Kinder, Heranwachsende, benachteiligte und besonders schutzbedürftige Personen genießen in der digitalen Welt speziellen Schutz. Ihre Teilhabe an der digitalen Welt ist zu fördern.
Ja.
Art. 20 (Bildung)
(1) Jeder hat ein Recht auf Bildung, die ein selbstbestimmtes Leben in der digitalen Welt ermöglicht.
(2) Digitalisierung ist eine elementare Bildungsherausforderung. Sie besitzt einen zentralen Stellenwert in den Lehrplänen öffentlicher Bildungseinrichtungen.
Schulfach Digitalisierung 2.0! So sehr ich (1) zustimme so sehr stört mich die Überhöhung des Digitalen im zweiten Teil. Ja, die Digitalsphäre ist wichtig, aber weil sie einfach Teil des Lebens ist, braucht sie gar nicht einen “zentralen Stellenwert” im Unterricht. Unterricht ist massiv reformbedürftig, aber irgendwie Internet in Schule kippen wird keine Probleme lösen: Entweder erhöht man durch noch mehr Stoff die Belastung der Kids, man streicht andere, relevant Inhalte, oder man krempelt Unterricht auf eine Art und Weise um, die viele Lehrkörper vielleicht gar nicht mehr leisten können. Man kann zu Bildung ganze Bücher schreiben, ich finde den Nebensatz hier etwas naiv. Das ist wie diese iPad Klassen. Dann haben alle iPads und … haben dann iPads. Aber niemand weiß so recht wozu. Ist so ‘ne Scheinlösung.
Art. 21 (Arbeit)
(1) Arbeit bleibt eine wichtige Grundlage des Lebensunterhalts und der Selbstverwirklichung.
(2) Im digitalen Zeitalter ist effektiver Arbeitsschutz zu gewährleisten.
(3) Der digitale Strukturwandel ist nach sozialen Grundsätzen zu gestalten.
Neben den diversen durchaus richtigen Aspekten hier (Arbeitsschutz ist zu gewährleisten, auch wenn Uber etc. versuchen, das zu unterlaufen) fehlt hier die wichtigste Erkenntnis: Automatisierung und Digitalisierung sorgen dafür, dass nicht mehr alle arbeiten können werden. Arbeit weiterhin als zentrale Grundlage des Lebensunterhalts fortzuschreiben ist zu rückwärtsgewandt. Wenn alle Menschen was von der Automatisierung haben sollen, dann wird das nicht über Erwerbsarbeit passieren. Dieser Artikel ist maximal 20. Jahrhundert, was sehr schade ist. Er ist nicht falsch, er ist nur heute schon nicht mehr zeitgemäß.
Art. 22 (Immaterialgüter)
Rechteinhabern steht ein fairer Anteil an den Erträgen zu, die aus der digitalen Nutzung ihrer Immaterialgüter erwirtschaftet werden. Diese Rechte müssen in Ausgleich gebracht werden mit nicht-kommerziellen Nutzungsinteressen.
Es ist schön, dass “nicht-kommerzielle Nutzungsinteressen” hier angesprochen werden (Europa braucht Fair-Use-Regelungen) aber der erste Satz ist wie aus der Contentlobby-Feder geflossen. Auf die Frage was “fair” ist, wollen wir mal gar nicht im Detail eingehen, aber der erste Teil enthält zum Beispiel das Leistungsschutzrecht. Und wie so oft geht es hier um die Details: Rechteinhaber steht was zu, nicht Autorinnen und Autoren, Malerinnen und Malern etc. Alle die ausbeuterischen, asozialen Praktiken, mit denen die Kreativbranche seit Jahren operiert (Total Buyout Verträge, Auslagerung von Arbeit an mies bezahlte, Freie) ist hier weiterhin mit am Start. Und wenn den Rechteinhabern (Contentlobby) ein Anteil zusteht, dann müssen sie ihn sich auch erkämpfen bzw. verteidigen: Die Konsequenzen für sowas wie Adblocker wären beispielsweise zu analysieren.
Dieser kurze Artikel hat definitiv die letzten 10 Jahre Diskussion um die Weiterentwicklung des Urheberrechts betrachtet – und eindeutig die Seite der Contentlobby übernommen. Das ist fast der peinlichste Faux Pas des ganzen Entwurfs: Wo andere Artikel einfach 1980 stehen geblieben sind, wurde hier bewusst die aktuelle Sprache der Verfechtenden des Leistungsschutzrechtes und ähnlicher Debakel übernommen.
Art. 23 (Schlussbestimmungen)
(1) Die Auslegung der in dieser Charta enthaltenen Rechte obliegt in letzter Instanz dem Europäischen Gerichtshof.
(2) Ausübung und Einschränkung der Rechte und Grundsätze dieser Charta erfolgen entsprechend Art. 52 EGC.
(3) Rechte und Pflichten aus dieser Charta gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Die Festlegung eines Gerichtsstands außerhalb der EU ist unzulässig.
Art. 23 ist scheinbar unauffällig, aber man endet mit einem Kracher, der auch schon aus der EU-Datenschutz-Grundverordnung bekannt ist: (3). Diese Regeln hier oben, die die EU sich geben soll/will/kann gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Wir reden hier übers Digitale. Wo ist da Gebiet? Wo fängt es an, wo hört es auf? Faktisch will man alle Unternehmen regulieren, die Kunden aus der EU haben. Diese könnten aber in ganz anderen Rechtsräumen sitzen und dort lokal widersprüchlichen Regeln unterliegen.
Diesen Konflikt, der in einer digital globalisierten Welt zunehmend wichtiger wird, findet hier nicht statt. Die EU legt fest, wie es auf der Welt läuft. Das mag ja schön und gut klingen, wenn man denselben Wertekanon pflegt, aber natürlich wird das zu Konflikten führen, nicht nur mit angeblichen “Schurkenstaaten”. Schon zwischen den USA und der EU gehen die Moralvorstellungen, wenn es um Darstellung von Gewalt, Nacktheit, Sexualität geht, auseinander. Nicht mal innerhalb der EU ist das konsistent. (3) ist daher irgendwo zwischen Magic Thinking und Paternalismus. Man muss in so einer Charta ein solche komplexes Problem nicht im Detail lösen, aber einfach darüber hinweg zu gehen, ist auch … sportlich.
Wechselwirkungen
Nicht alle Konsequenzen der Charta lassen sich in der Einzelbetrachtung der Artikel ablesen. Nehmen wir mal zum Beispiel Artikel 5 und 7: Art. 5 fordert die aktive Verhinderung von Hate-Speech, Art. 7 gibt Menschen das Recht bei negativen Konsequenzen durch algorithmische Aktionen benachrichtigt zu werden und den Vorgang durch Menschen reviewed zu bekommen. Nehmen wir also eine Plattform, die nach Art. 5 Postings vorfiltert auf Hate-Speech. Jeder Block, jede Filterung eines Kommentars kann nun durch den Verfasser oder die Verfasserin durch Art. 7 als manueller Review-Prozess angestoßen werden.
Das klingt erst mal gut und richtig, um die Rechte des Einzelnen oder der Einzelnen zu wahren, hat aber die Konsequenz, dass ich Social Media Anbieter nun ziemlich einfach pleite DDoSen kann: Ein Roboter kippt über diverse Sockenpuppen-Accounts Hassnachrichten aus, die alle automatisiert abgelehnt werden und ich fechte alle Ablehnungen an und erzwinge ein Review. Wer kann sich die notwendige Armee aus Reviewenden leisten und für wie lange?
Noise zu erzeugen ist billig, den Regeln zu entsprechen massiv teuer. So werden nur noch riesige Firmen übrigbleiben, kleine nachhaltige Plattformen sind nicht mehr möglich. Und es geht ja nicht nur um Facebook-Konkurrenten: Nehmen wir Foren, in denen Nutzende Produktberichte und Probleme austauschen und die einen großen gesellschaftlichen Mehrwert bringen. Nehmen wir kommerzielle Blogs mit Kommentarbereich. All diese müssen plötzlich für jeden Spam-Kommentar, der automatisiert rausgefiltert wird, potentiell Rede und Antwort stehen (und haben dazu nicht mal die notwendigen Infos, weil die Spamerkennung auf Servern von Akismet/Wordpress oder so läuft).
Fazit
Das vorliegende Dokument zeigt einen Entwurf einer Grundrechtscharta fürs Digitale, an dem leider diverse Diskussionen und Entwicklungen der letzten zehn Jahre vorbeigegangen sind. In den folgenden Wochen wird sich zeigen, ob sich die Autorinnen und Autoren sowie die Unterzeichnenden hier ein Denkmal setzen können. Ich kann nur hoffen, dass das nicht gelingt.
Viele Artikel sind möglicherweise falsch aber ungefährlich, andere sogar gut. Aber insbesondere wenn es beispielsweise um Meinungsfreiheit und Immaterialgüter geht, ist das vorliegende Dokument brandgefährlich. Aber genau das passiert, wenn eine kleine, homogene, elitäre Gruppe irgendwas hinregulieren will. Eine Grundrechtscharta entsteht nicht heimlich im Hinterzimmer, um sie dann schnell per Kampagne auf den Weg zur Verabschiedung zu bringen. Ein solches Dokument muss viel breiter aufgehängt sein, viel hintergründiger darüber nachdenken, wie menschliches, würdiges Leben in 10, 20, 50 Jahren aussehen kann und soll. Ein solches Dokument kann und darf nicht durch ein Recycling der Textfragmente, die bei den letzten paar EU Datenschutz- und Urheberrechtsverhandlungen übrig geblieben sind, entstehen. Denn so abstrakt vieles hier klingt: Eine Grundrechtscharta designed große Teile unserer aller Leben, entscheidet, was wir wir wann und mit wem tun oder nicht tun können.
Und hier bleibt der Entwurf weit hinter allem zurück. “Zurück” ist überhaupt das Stichwort: Das Digitale soll an vielen Stellen rückabgewickelt werden, weil man keine positive Erzählung von Automatisierung hat oder weil die positiven Erzählungen bedeuten, dass man im Bereich Regulierung ganz neu denken und Umsetzen muss. Diese Charta will gefühlt ein Internet in den Grenzen von 1990 oder so. Und das ist zu wenig.
Handwerklich ist an dem Text vor allem schwierig, dass nie ganz klar ist, was er sein will: Soll die allgemeine Grundrechtscharta ersetzt werden? Dann fehlen diverse Aspekte. Soll sie ergänzt werden? Was sollen dann all die Artikel, die sie nur inhaltlich kopieren? Das Ganze wirkt nicht aus einem Guss und auf Konsistenz geprüft, sondern wie so ein Bauchladen aus alten Memen und Ideen, die man mal so nebeneinander gestellt hat. Die Idee “viel hilft viel” ist bei Rechtsnormen eher problematisch: Man zieht sich durch einen Mix aus Ideen nahezu immer Inkonsistenzen und Probleme ins Dokument.
Es gäbe zu fast jedem Artikel noch detaillierte Betrachtungen zu entwickeln und ich freue mich, in den nächsten Tagen weitere Positionen zu lesen. Insbesondere freue ich mich schon auf die Analysen der Juristen, da mir schon diverse Formulierungen aufgefallen sind, die mir juristisch problematisch erscheinen.
Und hier der versprochene Otter: