Was haben Kryptographie, Blockchain, Kryptowährungen und KI gemeinsam? Nun ja, alles sind moderne und gehypte Themen der Digitalisierung. Das ist trivial. Aber verbirgt sich womöglich eine ähnliche Motivation hinter den Technologien?
- Kryptographie schützt Informationen vor unberechtigtem Zugriff. Freie Kryptographie konterkariert aber auch das staatliche Monopol, in Sonderfällen die Bürgerinnen auch überwachen zu dürfen.
- Blockchains bieten eine manipulationssicheren Datenablage. Sie ersetzen aber auch die Funktion vertrauenswürdiger, staatlich regulierter und überwachten Institutionen, wie etwa von Notariaten oder Banken.
- Krytowährungen verwenden die vorgenannte Techniken und stellen sich faktisch gegen staatliche Geldmonopole.
- Und künstliche Intelligenz (KI) erzeugt ohne intellektuelles Verständnis allein auf der Basis von bestehenden Daten einen eigenen, weitgehend intransparenten Regelkosmos. Im Rechtswesen steht dieser dann parallel neben dem hoheitlich gesetzten Regelwerk.
Aus einer größeren Flughöhe betrachtet stehen in allen Fällen – zumindest auch – staatliche Monopole auf dem Prüfstand und sollen einer behaupteten Vergemeinschaftung weichen. Überspitzt gesagt:
Ein treibender Faktor der Systeme ist digitale Anarchie.
Aber findet diese Vergemeinschaftung tatsächlich statt? Ihre Basis bilden einerseits – angeblich transparente – Open Source Techniken und andererseits eine Infrastruktur, die sich auf eine Verteilung von Daten- und Rechenkapazitäten in offenen Netze stützt. Es wird suggeriert, dass der offene Zugang zum Quellcode Sicherheitslücken durch gemeinschaftliche Kontrolle minimiert. Zudem erzeugen die scheinbar genossenschaftlichen Strukturen ein Wir-Gegen-Die-Gefühl und damit eine Hoffnung auf Unabhängigkeit von hierarchischen Systemen.
Bieten Open Source Techniken tatsächlich die Transparenz und Sicherheit für derart kritische Anwendungen?
Dagegen spricht vor allem die hohe Komplexität solcher Systeme. Wenn der BGH bereits 1987 (AZ VIII ZR 314/86) zugesteht, dass Software genau aufgrund ihrer Komplexität nie fehlerfrei sein kann, so ist es auch unrealistisch, dass Open Source Software frei von Code ist, der beabsichtigt oder unabsichtlich zu schädlichen Zwecken eingesetzt werden kann.
Ein „running System“ wird bekanntermaßen ungerne angefasst. Fehler können sich lange unbemerkt verstecken – auch in „hic sunt dracones“ Bereichen, die offen Unheil vermuten lassen. Kaum anders dürfte es sich bei der Komplexität großer Hardwarenetze verhalten. Das stellt ein erhebliches Risiko dar vor allem bei Schadstellen, die ihre Schadhaftigkeit nicht sofort offenbaren.
Wissen weicht Technik
Bei den hier erwähnten Techniken geht es weitgehend um eine Verschiebung von Zuständigkeiten und damit auch von Verantwortung. Ob es die Garantie von Sicherheiten ist oder hochspezialisiertes Expertenwissen, alles scheint durch digitale Alternativen sozialisierbar zu sein. Altbekannte, arbeitsteilige und spezialisierte Strukturen und Mechanismen werden kollektiv auf digitale Technologien, deren Entwickler:innen und selbstverständlich auch die entsprechenden Unternehmen übertragen. Von digitaler Disruption ist die Rede.
Kaum eine dieser Technologien wird nicht mittlerweile von großen IT-Playern dominiert, die auch mal mehr Wirtschaftsmacht besitzen als ganze Bundesstaaten. Und kaum eine Technologie arbeitet nicht mit Code von individuellen Menschen, deren persönliche Schwächen auch ein Risiko darstellen können.
Der Staat reagiert, wie er immer reagiert: mit Reglementierung.
Zu dumm, dass alle diese Techniken sich durch staatliche Grenzen kaum aufhalten lassen und sich schon deshalb einer staatlichen Regelung zumindest teilweise entziehen. TikTok mag als populäres Beispiel dafür gelten, dass digitale Angebote mit durchaus hohem Schadpotential über Grenzen hinweg kaum wirksam reglementierbar sind.
Und so versuchen Institutionen und Staatsgewalt entsprechend schwindende Privilegien auch dadurch zu sichern, dass sie selbst die Technologien einsetzen und fördern.
Einen Gipfel in der Entwicklung anarchischer Systeme stellt die KI dar.
Sie hat einen Punkt erreicht, in dem nicht einmal ihre Schöpfer:innen noch sagen können, wie sie funktioniert und wie sie zu ihren Entscheidungen kommt. Sie ist so komplex und so sehr im Fluss, dass sie selbst bei derselben Aufgabe innerhalb kürzester Zeit zu unterschiedlichen Ergebnissen kommt. Nachdem das verwertete Datenmaterial stetig wächst und dabei auch Lücken, Fehler, Inkonsistenzen, und Widersprüche enthalten kann, ist die Sprunghaftigkeit nicht verwunderlich. Jede zusätzliche Information kann ein völlig neues Verhalten triggern.
Eine bekannte Schwachstelle ist nicht erst seit ChatGPT, sondern seit Jahrzehnten ungelöst: KI kann ihre eigenen Entscheidungen nicht transparent erklären. Neu ist freilich, dass sie glaubhaft vorgaukeln kann, sie wisse, warum sie etwas so und nicht anders sagt. Neu und fast menschlich ist auch, dass man mit KI die Ergebnisse diskutieren kann. Eher weniger menschlich ist ihre Neigung, sich argumentativem Druck sehr schnell zu beugen.
Der Einsatz von KI gerade im staatlichen und juristischen Umfeld muss in Kenntnis vieler Risiken erfolgen.
Dazu bedarf es fundiertes Wissen auch über die Funktionsweise der Systeme. Nur so kann man sinnvolle Einsatzgebiete – die es freilich gibt – ermitteln, entsprechende Projekte aufsetzen, kritisch testen und sicher einsetzen. Man tut der KI – wie auch den übrigen genannten Techniken – unrecht, wenn man sie grundsätzlich verteufelt. Mann sollte sich aber auch hüten, KI allzu leicht bei der Lösung komplexer Probleme als Allheilmittel einzusetzen.
Wenn selbst auf Fachtagungen von KI wie von einem verständigen Menschen geredet wird, weil sie etwa Regeln in Gesetzen „verstehen“, „lernen“ und „anwenden“ kann, dann ist beim Systemwissen noch Luft nach oben. Die Art und Weise, wie wir über KI reden, verrät auch viel darüber, was wir über sie wissen.
Natürlich beteuern die meisten Menschen immer wieder, sie wüssten, dass hinter ChatGPT ein statistisches und kein verständiges System steckt. Es gehe nur darum, welches Wort als nächstes wahrscheinlich sei, hört man gebetsmühlenartig. Dennoch ist die Versuchung zu groß, von einem System, das wie ein Mensch spricht, auch wie von einem Menschen zu sprechen. Und dann denkt man auch, die KI kann wie ein Mensch denken. – Kann sie aber nicht!
Es braucht also viel intensive Aufklärung, damit Wissen über KI zum Allgemeinwissen werden kann.