Einleitende Anmerkung
PRÄAMBEL
IM BEWUSSTSEIN, DASS
die Anerkennung der angeborenen Würde und der gleichen und unveräußerlichen Rechte aller Menschen die Grundlage von Freiheit, Gerechtigkeit und Frieden in der Welt bildet,
die zunehmende Digitalisierung zur Veränderung der Grundlagen unserer Existenz führt,
es im digitalen Zeitalter zu enormen Machtverschiebungen zwischen Einzelnen, Staat und Unternehmen kommt,
im digitalen Zeitalter eine zivilgesellschaftliche Debatte entstanden ist und weitergeht,
Grundrechte und demokratische Grundprinzipien im digitalen Zeitalter auf neue Herausforderungen und Bedrohungen treffen,
technischer Fortschritt stets im Dienste der Menschheit zu stehen hat,
die Gestaltung der digitalen Welt auch eine europäische Aufgabe sein muss, damit es im europäischen Verbund gelingt, Freiheit, Gerechtigkeit und Solidarität im 21. Jahrhundert zu erhalten;
IN ANERKENNUNG
der Allgemeinen Erklärung der Menschenrechte,
der Europäischen Menschenrechtskonvention,
der Charta der Grundrechte der Europäischen Union,
der Grundrechts- und Datenschutzstandards der Europäischen Union und ihrer Mitgliedstaaten;
FEST ENTSCHLOSSEN
Grundrechte und demokratische Prinzipien auch in der digitalen Welt durch die Herrschaft des Rechts zu schützen,
staatliche Stellen und private Akteure auf eine Geltung der Grundrechte in der digitalen Welt zu verpflichten,
auf diese Weise das Fundament einer rechtsstaatlichen Ordnung im digitalen Zeitalter zu schaffen,
das Digitale nicht als Quelle der Angst, sondern als Chance für ein gutes Leben in einer globalen Zukunft zu erfassen;
ERKENNT DIE UNION DIE NACHSTEHEND AUFGEFÜHRTEN RECHTE, FREIHEITEN UND GRUNDSÄTZE AN:
Art. 1 (Würde)
(1) Die Würde des Menschen ist auch im digitalen Zeitalter unantastbar. Sie muss Ziel und Zweck aller technischen Entwicklung sein und begrenzt deren Einsatz.
(2) Neue Gefährdungen der Menschenwürde ergeben sich im digitalen Zeitalter insbesondere durch Big Data, künstliche Intelligenz, Vorhersage und Steuerung menschlichen Verhaltens, Massenüberwachung, Einsatz von Algorithmen, Robotik und Mensch-Maschine Verschmelzung sowie Machtkonzentration bei privaten Unternehmen.
(3) Die Rechte aus dieser Charta gelten gegenüber staatlichen Stellen und Privaten
Freiheit ist ein tolles Wort. Nimmt man 10 Menschen und fragt sie zu Freiheit, bekommt man 14 unterschiedliche Definitionen oder Auffassungen davon, was das sein soll. Klingt alles gut, wirklich. Man darf sich seine Informationen suchen, wo man will und man darf kommunizieren, mit wem man will. Das ist grundsätzlich richtig und auch schon genauso Teil unseres westlichen Werte- und Grundrechtskanons. Ob das eine Gesellschaft wirklich in irgendeiner Form "frei" macht, ist natürlich eine ganz andere Frage, die wir später noch beleuchten werden. Dass das Recht auf Nichtwissen (also das Recht, bestimmtes Wissen nicht haben zu wollen) eingeschlossen ist, folgt aus dem Recht auf freie Information. Der Artikel ist wichtig, klingt aber mächtiger als er ist: Ohne eine Charakterisierung des Begriffes "Freiheit" bedeutet das alles nichts. Soll Freiheit hier positiv oder negativ definiert werden oder beides? Geht es darum, dass Informationen nicht unterdrückt werden sollen oder dass sie explizit Menschen bereitgestellt und zugänglich gemacht werden sollen? Beides mag ähnlich klingen, die Verständnisse sind aber fundamental unterschiedlich.Art. 2 (Freiheit)
Jeder hat ein Recht auf freie Information und Kommunikation. Dieses Recht ist konstitutiv für die freie Gesellschaft. Es beinhaltet das Recht auf Nichtwissen.
(1) ist eine Aussage, an der ich wenig zu kritisieren habe. Würde mich freuen, wenn wir dieses Recht auf Teilhabe auch greifbar ausgestaltet sähen: Zu sagen "jeder Mensch muss einen Internetanschluss mieten dürfen" erfüllt formal die Aussage, ist aber etwas ganz anderes als zu sagen "Jeder Mensch hat ein Anrecht auf einen adäquaten Zugang zum Internet". Das Diskriminierungsverbot der Grundrechte Charta ist leider zu oft blind gegenüber ökonomischer Diskriminierung. "Teilhabe", die man sich leisten können muss, ist nicht gleich.(2) ist komisch. "Automatisierte Verfahren" dürfen Menschen nicht ausschließen. Ok. Ich packe also ans Ende des Verfahrens einen Menschen, der "Ja" oder "Nein" klickt. Natürlich hat dieser Mensch die völlige Freiheit bei seiner Entscheidung. Entscheidet er oder sie aber gegen das automatisierte Verfahren, gegen den Vorschlag der Maschine, wird er oder sie sich erklären müssen und irgendwann potentiell Ärger bekommen. Wir kennen solche Verfahren seit vielen, vielen Jahren: Wenn die Schufa sagt, dass ich keinen Kredit bekomme, dann kann der Berater oder die Beraterin bei der Bank natürlich anders entscheiden, aber warum sollte er oder sie? Das Risiko wandert auf den oder die Berater/in anstelle auf die anonyme Maschine.Art. 3 (Gleichheit)
(1) Jeder Mensch hat das Recht auf eine gleichberechtigte Teilhabe in der digitalen Sphäre. Es gilt das in der Europäischen Grundrechte-Charta formulierte Diskriminierungs-Verbot.
(2) Die Verwendung von automatisierten Verfahren darf nicht dazu führen, dass Menschen vom Zugang zu Gütern, Dienstleistungen oder von der Teilhabe am gesellschaftlichen Leben ausgeschlossen werden. Dies gilt insbesondere im Bereich Gesundheit, Schutz vor elementaren Lebensrisiken, Recht auf Arbeit, Recht auf Wohnen, Recht auf Bewegungsfreiheit und bei Justiz und Polizei.
Was die Pflicht, staatliche Macht zu kontrollieren und zu begrenzen mit "neuen Bedrohungen" zu tun hat, ist ein Thema, über das man lange reden könnte. Eigentlich ist es ja eher so, dass diese Aussage wiederum so grundlegend ist, dass die Art der Bedrohungen für ihre Richtigkeit in einer demokratischen Gesellschaft irrelevant ist: Staatliche Macht muss kontrolliert und begrenzt sein. No matter what.Art. 4 (Innere und äußere Sicherheit)
(1)Im digitalen Zeitalter werden innere und äußere Sicherheit auf neue Weise bedroht. Bei der Ausübung der Schutzverantwortung des Staates sind enge rechtsstaatliche Grenzen zu beachten.
(2) Sicherheitsbehörden dürfen nicht auf durch Private erhobene Daten zugreifen. Ausnahmen sind nur auf gesetzlicher Grundlage zum Schutz besonders wichtiger Rechtsgüter zulässig.
(3) Eine anlasslose Massenüberwachung findet nicht statt.
(4) Waffensysteme dürfen nicht vollautomatisiert eingesetzt werden.
Artikel 5 ist einer der dicksten Klopper der Charta, insbesondere, weil er ein aktuelles Thema und Problem aufnimmt und scheinbar elegant löst: Hate Speech. Viel wurde in den letzten Monaten geschrieben zum "Hass im Netz" und was Facebook und andere da nun zu tun hätten und wer Schuld sei (Hinweis: Immer die, die Hass verbreiten und mobben).(1) ist dabei harmlos: Es gibt keine Zensur, man darf seine Meinung äußern (hat das schon jemand Herrn Orban in Ungarn erzählt?) Zensur ist hier offensichtlich vor allem als staatlicher Eingriff gedacht, der vor der Publikation gilt. Alles wie gehabt.(2) ist nun spannender, weil hier das Passiv auf die Bühne tritt. "Digitale Hetze", "Mobbing" usw sind zu verhindern. Aber selbst wenn wir mal über den Mangel einer Definition von "Hetze" und "Mobbing" hinwegsehen und auch die Frage am Wegesrand stehen lassen, weshalb nur "digitale Hetze" zu verhindern ist und nicht einfach Hetze im Allgemeinen, müssen wir über den Begriff "verhindern" sprechen. "Verhindern" ist präventiv, greift also vor der Tat ein ("bestrafen" zum Beispiel ist immer nach dem Vergehen). Wie soll denn so eine präventive Handlung aussehen? Soll Facebook Wortlisten pflegen mit Begriffen oder Floskeln, die "Hassrede" sind und daher nicht gepostet werden dürfen? Wer würde denn solche Wortlisten pflegen? Wenn eine staatliche Stelle so was pflegt, wo wäre dann der Unterschied zu einer Zensur? Und wenn es keine staatliche Stelle pflegt: Wer kontrolliert das? Wer gibt der Liste demokratische Legitimität?Art. 5 (Meinungsfreiheit und Öffentlichkeit)
(1) Jeder hat das Recht, in der digitalen Welt seine Meinung frei zu äußern. Eine Zensur findet nicht statt.
(2) Digitale Hetze, Mobbing sowie Aktivitäten, die geeignet sind, den Ruf oder die Unversehrtheit einer Person ernsthaft zu gefährden, sind zu verhindern.
(3) Ein pluraler öffentlicher Diskursraum ist sicherzustellen.
(4) Staatliche Stellen und die Betreiber von Informations- und Kommunikationsdiensten sind verpflichtet, für die Einhaltung von Abs. 1, 2 und 3 zu sorgen
Das Bilden von persönlichen Profilen ist nur auf gesetzlicher Grundlage zulässig. Hier wurden so EU-Datenschutz-Grundverordnungstextstummel recycled. Was genau ein Profil charakterisiert bleibt schwammig: Ist es ein Profil, wenn ich anonymisierte Massendaten sammle, Muster erkenne, Cluster bilde und diese Cluster und Muster dann auf neue Personen anwende? Die Informationen, die ich nutze, haben ja in dem Falle nichts mit der Person, auf die sich sie anwende, zu tun? Ich halte das hier für unterspezifiziert und in seinem Ziel diffus. Profiling ist so ein Totem für "böses Internet", aber was genau hier erreicht werden soll, bleibt unklar. Ist eher so ein Artikel, der sich auf aktuelle Modeworte beziehen will—was für Grundrechtsdarstellungen eher problematisch ist.Art. 6 (Profiling)
Profiling durch staatliche Stellen oder Private ist nur auf gesetzlicher Grundlage zulässig
Der Begriff Algorithmus hat eine sehr beeindruckende Begriffsveränderung hinter sich. Ursprünglich einfach Bezeichnung für eine strukturierte Beschreibung eines Vorgehens zur Erreichung eines definierten Zieles ist ALGORITHMUS heute der Begriff, mit dem man in bildungsbürgerlichen Kontexten Digitalkompetenz performt. Über Automatisierung und soziale Kontexte haben wir nun schon mehrfach gesprochen. Ich bin immer noch nicht davon überzeugt, dass diskriminierende Entscheidungen dadurch problematisch werden, dass sie durch ALGORITHMEN—also von Menschen in Code gegossene Modelle, Annahmen und Vorurteile, denn wie jedes andere Artefakt sind auch Algorithmen nie "neutral"—durchgeführt werden. Die Diskriminierung ist das Problem. Hier ist wieder zu kurz gedacht: Warum die Beschränkung auf Automatisierung? Worum geht es eigentlich? Menschen sollen nicht zu Objekten werden ohne legitimen Grund. Aber was wären denn Gründe? Automatisierung ist hier weitgehend Nicht-Kriterium.Art. 7 (Algorithmen)
(1) Jeder hat das Recht, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung für die Lebensführung zu sein. Sofern automatisierte Verfahren zu Beeinträchtigungen führen, besteht Anspruch auf Offenlegung, Überprüfung und Entscheidung durch einen Menschen. Die Kriterien automatisierter Entscheidungen sind offenzulegen.
(2) Insbesondere bei der Verarbeitung von Massen-Daten sind Anonymisierung und Transparenz sicherzustellen.
Art. 8 (Künstliche Intelligenz)
(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden.
(2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden.
(3) Für die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein.
(4) Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.
Art. 9 (Transparenz)
(1) Die Informationen staatlicher Stellen müssen öffentlich zugänglich sein.
(2) Das Transparenzgebot gilt auch gegenüber Privaten, sofern diese über Informationen verfügen, die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind
Ich sehe nicht, wo das hier irgendwie über bestehende Regelungen hinaus geht.Art. 10 (Unversehrtheit der Wohnung)
Jeder hat das Recht, in seiner Wohnung frei und unbeobachtet zu leben
Ich habe in meinem Leben schon mehr Über Datenschutz geschrieben, als einem glücklichen Leben zuträglich sein kann. Im Prinzip steht hier nochmal die EU-Datenschutz-Grundverordnung Light mit allen Problemen, die sich daraus ergeben. Schade ist nur, dass aus den Kommentaren zur EUDataP offensichtlich nicht gelernt wurde. Ich verweise aufmeine Kommentare zur EUDataP. Man ist halt wieder in die Falle der "Einwilligung" gelaufen, die für die meisten Fälle heute komplett hohl ist: Kaum jemand hat die Kompetenzen und Informationslage um Datenverarbeitung ernsthaft einzuwilligen.Art. 11 (Datenschutz und Datensouveränität)
(1) Jeder hat das Recht auf den Schutz seiner Daten und die Achtung seiner Privatsphäre.
(2) Jeder hat das Recht, über seine Daten selbst zu bestimmen. Personenbezogene Daten dürfen nur nach Treu und Glauben und für festgelegte Zwecke erhoben und verarbeitet werden, wenn dies für das jeweilige Nutzungsverhältnis erforderlich ist und eine vorherige Einwilligung erfolgt ist oder auf gesetzlicher Grundlage. Die Einwilligung muss ausdrücklich und informiert erfolgen. Nutzungsverhältnisse müssen fair und transparent gestaltet werden.
(3) Die Einhaltung dieser Rechte wird von einer unabhängigen Stelle überwacht.
(4) Anbieter von Diensten oder Produkten dürfen nur solche Daten erheben und verarbeiten, welche für den Zweck der Benutzung erforderlich sind. Die Grundsätze von privacy by design und privacy by default sind einzuhalten.
Hier kommt der cyberlibertäre Einschlag zum Tragen der sich auch in der Liste der Unterzeichnenden findet: Natürlich haben Menschen das Recht, ihre Daten zu verschlüsseln. Und grundsätzlich sind Systeme in ihrer Integrität auch zu schützen. Die Frage ist aber natürlich, ob es nicht doch Gründe gibt, nach denen es legitime Gründe gibt, eine Verschlüsselung zu brechen oder eine Unterhaltung abzuhören (mit dementsprechender demokratischer Kontrolle). Ich bin weder Freund der Sicherheitsbehörden noch der Geheimdienste, aber alles Verschlüsselte als unantastbar zu labeln, ist mir dann auch zu einfach.Art. 12 (Informationelle Selbstbestimmung)
(1) Die Unversehrtheit, Vertraulichkeit und Integrität informationstechnischer Systeme ist sicherzustellen.
(2) Jeder hat ein Recht auf Verschlüsselung seiner Daten
Art. 13 (Datensicherheit)
(1) Jeder hat ein Recht auf Sicherheit von informationstechnischen Systemen und der durch sie verarbeiteten Daten. Dabei ist höchstmöglicher Schutz zu gewährleisten.
(2) Identitätsdiebstahl und Identitätsfälschung sind zu bekämpfen.
Wahlen und Abstimmungen sollen immer auch nicht-digital gehen. Soll mir recht sein. Wird dann darauf hinauslaufen, dass Papierzettel per OCR digitalisiert und dem Softwaresystem zugeführt werden, aber ok. Tut niemandem weh.Art. 14 (Wahlen)
Das Recht, an Wahlen und Abstimmungen teilzunehmen, darf nicht an den Zugang zu digitalen Medien gebunden werden
Ja. Jeder Mensch hat ein Recht auf freien und gleichen Zugang zum Netz. Aber müssen Kommunikationsdienste wirklich anonymen Zugang gewähren? Insbesondere um gegen Hate-Speech vorzugehen kann ja eine Bindung eines Accounts an reale IDs (Telefonnummer z.B.) hilfreich sein: So kann sich ein Mobber keine 50 Roboter-Accounts clicken. Die Idee, dass digitale Angebote immer auch nicht-personalisiert nutzbar sein müssen, ist Humbug: Facebook ohne Login ergibt keinen Sinn, da man ohne Login keine Kontakte haben kann. Die Personalisierung ist oft—aus inhaltlichen oder monetären Gründen—untrennbar mit Diensten verbunden. Dienstanbieter hier zu zwingen, einen potentiell wertlosen Dienstzugang zu bieten, halte ich für Datenschutztheater .Art. 15 (Freier Zugang)
(1) Jeder Mensch hat das Recht auf freien, gleichen und anonymen Zugang zu Kommunikationsdiensten, ohne dafür auf grundlegende Rechte verzichten zu müssen. Das Internet ist Bestandteil der Grundversorgung.
(2) Jeder hat das Recht auf eine nicht-personalisierte Nutzung digitaler Angebote.
Netzneutralität ist kein optimaler Hebel, aber besser als nichts. Wenn man eine Charta schreibt, kann so etwas (so lange der freie und gleiche Zugang für alle auch gewährt bleibt und die Quality of Service Frage geklärt ist) auch rein um Missbrauch der Macht von Anschlussanbietern zu beschränken. Sinnvoller wäre vielleicht sogar eher ein Verbot, gleichzeitig Zugangs- und Contentanbieter zu sein.Art. 16 (Netzneutralität)
Netzneutralität ist zu gewährleisten. Dies gilt auch für Dienste, die den Zugang zur digitalen Sphäre vermitteln.
Offene Standards zu fördern klingt gut und zwingt niemanden zu irgendwas, da freuen sich alle. An dieser Stelle finde ich sogar eher eine Verpflichtung von Entitäten gewissen Einflusses zu offenen Standards den richtigen Schritt. Weg von dem neoliberalen Marktgerede hin zum Schaffen von verlässlichen Interfaces, mit denen Menschen interagieren können. Das würde automatisch viele Fälle marktmissbräuchlichen Verhaltens aushebeln.Mich stört hier vor allem "Markt", wir sind ja nicht bei der FDP hier. Eigentlich geht es doch eher um Macht, von daher kann man das auch so benennen. Dann stimme ich sogar zu.Art. 17 (Pluralität und Wettbewerb)
In der digitalen Welt sind Pluralität und kulturelle Vielfalt zu gewährleisten. Offene Standards sind zu fördern. Marktmissbräuchliches Verhalten ist wirksam zu verhindern
Ja, jeder Mensch hat ein Recht auf Neuanfang. Aber das "Recht auf Vergessenwerden" ist dafür kein sinnvolles Werkzeug. Ich habe das damals schon dargestellt, als dasselbe falsche Konzept in der EU Datenschutzgrundverordnung auftauchte. Es ist wieder Ausdruck des digitalen Dualismus in dessen Zuge man hier fürs Digitale Regulierungen fordert und implementiert, die man in anderen Bereichen des Lebens niemals akzeptieren würde. Die Kritik an dieser fixen Idee einiger Datenschützer wird seit Jahren vorgebracht und es ist bedauernswert, dass man sich wieder mal jeder Kritik und jedem Feedback verschließt.Art. 18 (Recht auf Vergessenwerden)
Jeder Mensch hat das Recht auf digitalen Neuanfang. Dieses Recht findet seine Grenzen in den berechtigten Informationsinteressen der Öffentlichkeit.
Ja.Art. 19 (Besonders schutzbedürftige Personen)
Kinder, Heranwachsende, benachteiligte und besonders schutzbedürftige Personen genießen in der digitalen Welt speziellen Schutz. Ihre Teilhabe an der digitalen Welt ist zu fördern.
Schulfach Digitalisierung 2.0! So sehr ich (1) zustimme so sehr stört mich die Überhöhung des Digitalen im zweiten Teil. Ja, die Digitalsphäre ist wichtig, aber weil sie einfach Teil des Lebens ist, braucht sie gar nicht einen "zentralen Stellenwert" im Unterricht. Unterricht ist massiv reformbedürftig, aber irgendwie Internet in Schule kippen wird keine Probleme lösen: Entweder erhöht man durch noch mehr Stoff die Belastung der Kids, man streicht andere, relevant Inhalte, oder man krempelt Unterricht auf eine Art und Weise um, die viele Lehrkörper vielleicht gar nicht mehr leisten können. Man kann zu Bildung ganze Bücher schreiben, ich finde den Nebensatz hier etwas naiv. Das ist wie diese iPad Klassen. Dann haben alle iPads und … haben dann iPads. Aber niemand weiß so recht wozu. Ist so 'ne Scheinlösung.Art. 20 (Bildung)
(1) Jeder hat ein Recht auf Bildung, die ein selbstbestimmtes Leben in der digitalen Welt ermöglicht.
(2) Digitalisierung ist eine elementare Bildungsherausforderung. Sie besitzt einen zentralen Stellenwert in den Lehrplänen öffentlicher Bildungseinrichtungen.
Neben den diversen durchaus richtigen Aspekten hier (Arbeitsschutz ist zu gewährleisten, auch wenn Uber etc. versuchen, das zu unterlaufen) fehlt hier die wichtigste Erkenntnis: Automatisierung und Digitalisierung sorgen dafür, dass nicht mehr alle arbeiten können werden. Arbeit weiterhin als zentrale Grundlage des Lebensunterhalts fortzuschreiben ist zu rückwärtsgewandt. Wenn alle Menschen was von der Automatisierung haben sollen, dann wird das nicht über Erwerbsarbeit passieren. Dieser Artikel ist maximal 20. Jahrhundert, was sehr schade ist. Er ist nicht falsch, er ist nur heute schon nicht mehr zeitgemäß.Art. 21 (Arbeit)
(1) Arbeit bleibt eine wichtige Grundlage des Lebensunterhalts und der Selbstverwirklichung.
(2) Im digitalen Zeitalter ist effektiver Arbeitsschutz zu gewährleisten.
(3) Der digitale Strukturwandel ist nach sozialen Grundsätzen zu gestalten.
Es ist schön, dass "nicht-kommerzielle Nutzungsinteressen" hier angesprochen werden (Europa braucht Fair-Use-Regelungen) aber der erste Satz ist wie aus der Contentlobby-Feder geflossen. Auf die Frage was "fair" ist, wollen wir mal gar nicht im Detail eingehen, aber der erste Teil enthält zum Beispiel das Leistungsschutzrecht. Und wie so oft geht es hier um die Details: Rechteinhaber steht was zu, nicht Autorinnen und Autoren, Malerinnen und Malern etc. Alle die ausbeuterischen, asozialen Praktiken, mit denen die Kreativbranche seit Jahren operiert (Total Buyout Verträge, Auslagerung von Arbeit an mies bezahlte, Freie) ist hier weiterhin mit am Start. Und wenn den Rechteinhabern (Contentlobby) ein Anteil zusteht, dann müssen sie ihn sich auch erkämpfen bzw. verteidigen: Die Konsequenzen für sowas wie Adblocker wären beispielsweise zu analysieren.Dieser kurze Artikel hat definitiv die letzten 10 Jahre Diskussion um die Weiterentwicklung des Urheberrechts betrachtet – und eindeutig die Seite der Contentlobby übernommen. Das ist fast der peinlichste Faux Pas des ganzen Entwurfs: Wo andere Artikel einfach 1980 stehen geblieben sind, wurde hier bewusst die aktuelle Sprache der Verfechtenden des Leistungsschutzrechtes und ähnlicher Debakel übernommen.Art. 22 (Immaterialgüter)
Rechteinhabern steht ein fairer Anteil an den Erträgen zu, die aus der digitalen Nutzung ihrer Immaterialgüter erwirtschaftet werden. Diese Rechte müssen in Ausgleich gebracht werden mit nicht-kommerziellen Nutzungsinteressen.
Art. 23 ist scheinbar unauffällig, aber man endet mit einem Kracher, der auch schon aus der EU-Datenschutz-Grundverordnung bekannt ist: (3). Diese Regeln hier oben, die die EU sich geben soll/will/kann gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Wir reden hier übers Digitale. Wo ist da Gebiet? Wo fängt es an, wo hört es auf? Faktisch will man alle Unternehmen regulieren, die Kunden aus der EU haben. Diese könnten aber in ganz anderen Rechtsräumen sitzen und dort lokal widersprüchlichen Regeln unterliegen.Diesen Konflikt, der in einer digital globalisierten Welt zunehmend wichtiger wird, findet hier nicht statt. Die EU legt fest, wie es auf der Welt läuft. Das mag ja schön und gut klingen, wenn man denselben Wertekanon pflegt, aber natürlich wird das zu Konflikten führen, nicht nur mit angeblichen "Schurkenstaaten". Schon zwischen den USA und der EU gehen die Moralvorstellungen, wenn es um Darstellung von Gewalt, Nacktheit, Sexualität geht, auseinander. Nicht mal innerhalb der EU ist das konsistent. (3) ist daher irgendwo zwischen Magic Thinking und Paternalismus. Man muss in so einer Charta ein solche komplexes Problem nicht im Detail lösen, aber einfach darüber hinweg zu gehen, ist auch … sportlich.Art. 23 (Schlussbestimmungen)
(1) Die Auslegung der in dieser Charta enthaltenen Rechte obliegt in letzter Instanz dem Europäischen Gerichtshof.
(2) Ausübung und Einschränkung der Rechte und Grundsätze dieser Charta erfolgen entsprechend Art. 52 EGC.
(3) Rechte und Pflichten aus dieser Charta gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Die Festlegung eines Gerichtsstands außerhalb der EU ist unzulässig.