Mit Artikel 27 wurde deutlich, dass digitale Freiheitsrechte notwendig sind, um individuelle Autonomie in einer infrastrukturbasierten Gesellschaft zu sichern. Doch Rechte allein reichen nicht aus. Sie entfalten ihre Wirkung nur, wenn sie in den Systemen selbst verankert sind. Damit verschiebt sich die zentrale Frage von der Formulierung von Rechten zu ihrer Umsetzung. Wer sorgt dafür, dass diese Rechte tatsächlich im Code, in den Standards und in den technischen Architekturen berücksichtigt werden?
In klassischen Demokratien erfolgt die Umsetzung von Rechten über Gesetze, Institutionen und Gerichte. Diese wirken ex post. Ein Eingriff findet statt, und danach wird geprüft, ob er rechtmäßig war. In digitalen Infrastrukturen verlagert sich diese Logik. Entscheidungen werden zunehmend ex ante getroffen. Systeme prüfen, filtern und bewerten, bevor eine Handlung überhaupt ausgeführt wird. Damit wird die Umsetzung von Rechten zu einer Frage der Systemarchitektur.
Wenn etwa ein Identitätssystem entscheidet, ob eine Person Zugang zu einem Dienst erhält, dann wird das Recht auf Teilhabe nicht erst im Nachhinein geprüft, sondern bereits in der Systemlogik vorstrukturiert. Wenn ein Zahlungsmechanismus Transaktionen nach bestimmten Kriterien freigibt oder blockiert, dann wirkt diese Entscheidung unmittelbar. Rechte müssen daher bereits bei der Entwicklung dieser Systeme berücksichtigt werden.
Das führt zu einer Verschiebung von juristischer Kontrolle hin zu technischer Gestaltung. Entwickler, Architekten, Standardisierungsgremien und Regulierungsbehörden definieren gemeinsam die Parameter, innerhalb derer Systeme funktionieren. Diese Parameter bestimmen faktisch, wie Rechte ausgeübt werden können. Die Frage der Kontrolle stellt sich daher nicht mehr nur gegenüber staatlichen Institutionen, sondern auch gegenüber denjenigen, die technische Systeme entwerfen und implementieren.
Ein wesentliches Problem liegt in der Intransparenz. Komplexe Systeme sind oft nur für Spezialisten vollständig nachvollziehbar. Algorithmen, Datenmodelle und Sicherheitsarchitekturen werden in Fachsprache beschrieben und sind für die breite Öffentlichkeit schwer zugänglich. Dadurch entsteht eine Lücke zwischen normativer Vorgabe und technischer Umsetzung. Selbst wenn Rechte klar formuliert sind, bleibt unklar, wie sie konkret in Systemen abgebildet werden.
Diese Lücke kann nur durch neue Formen der Governance geschlossen werden. Governance bedeutet in diesem Zusammenhang nicht nur Regulierung, sondern die strukturierte Verbindung von Recht, Technik und gesellschaftlicher Kontrolle. Es geht darum, Prozesse zu schaffen, in denen technische Systeme überprüfbar, nachvollziehbar und anpassbar bleiben.
Ein Ansatz ist die stärkere Einbindung interdisziplinärer Expertise. Juristen, Informatiker, Ethiker und Praktiker müssen gemeinsam an der Gestaltung von Systemen arbeiten. Entscheidungen über Parameter dürfen nicht ausschließlich technisch getroffen werden, sondern müssen normative Aspekte berücksichtigen. Gleichzeitig müssen politische Institutionen in die Lage versetzt werden, technische Entwicklungen zu verstehen und zu bewerten.
Ein weiterer Aspekt ist die Transparenz. Systeme, die über zentrale gesellschaftliche Funktionen entscheiden, müssen nachvollziehbar sein. Das bedeutet nicht, dass jeder Quellcode öffentlich sein muss, aber dass die Funktionsprinzipien, Entscheidungslogiken und Bewertungsmechanismen verständlich erklärt werden können. Nur so kann eine informierte öffentliche Debatte stattfinden.
Auch die Frage der Kontrolle spielt eine zentrale Rolle. Es braucht Institutionen, die technische Systeme prüfen, auditieren und bei Bedarf korrigieren können. Diese Kontrolle muss unabhängig sein und darf nicht ausschließlich innerhalb der Organisationen stattfinden, die die Systeme betreiben. Externe Aufsicht und klare Verantwortlichkeiten sind notwendig, um Vertrauen zu schaffen.
Schließlich ist die Anpassungsfähigkeit entscheidend. Digitale Systeme entwickeln sich kontinuierlich weiter. Governance-Strukturen müssen daher flexibel genug sein, um auf neue Entwicklungen zu reagieren, ohne dabei grundlegende Prinzipien zu gefährden. Rechte müssen nicht nur definiert, sondern dauerhaft in sich verändernden Systemen gesichert werden.
Artikel 28 zeigt damit, dass die Frage nach der Kontrolle von Code keine rein technische ist. Sie ist eine politische und gesellschaftliche Herausforderung. Wenn Infrastruktur zunehmend normative Wirkung entfaltet, dann muss auch ihre Gestaltung demokratisch rückgebunden werden. Die Kontrolle von Code wird damit zu einer zentralen Aufgabe moderner Demokratien.
Wenn Governance-Strukturen geschaffen werden müssen, um digitale Systeme zu kontrollieren, stellt sich die nächste Frage nach konkreten Gestaltungsmöglichkeiten. Artikel 29 untersucht, welche Ansätze es gibt, um monetäre und digitale Selbstbestimmung praktisch umzusetzen und wie eine Balance zwischen Effizienz, Sicherheit und Freiheit erreicht werden kann.



