Künstliche Intelligenz: Der Roboter in der Recht­sp­re­chung

von Martin Rath

07.02.2021

Seit dem Jahr 2001 wird der 7. Februar als Tag propagiert, an dem die Zuneigung zu Robotern gefeiert werden soll: Ist das ein lächerlicher posthumanistischer Gedanke oder hat es einen (sogar) juristischen Realitätsbezug?

Britische Science-Fiction-Schriftsteller haben eindeutig die Nase vorn, wenn es um den menschlichen Umgang mit Robotern und Künstlicher Intelligenz (KI) geht.

In seinem Werk "Die Kinder des Saturn" (2008) lässt etwa Charles Stross (1964–) die Hauptfigur Freya Nakamichi-47 durch ein nur noch von Robotern bevölkertes Sonnensystem reisen. Nach dem Aussterben des Homo sapiens ist sie recht verloren, weil ihr KI-Bewusstsein als "perfekte Konkubine" darauf geeicht ist, menschliche Bedürfnisse zu bedienen.

Der frühere ESA-Physiker Alastair Reynolds (1966–) beschreibt in "Aurora" (2007) plausibel wirkende posthumane Menschen und ein Sammelsurium ausdifferenzierter KI-Existenzen. Seine postkapitalistische Überflussgesellschaft "Culture" bevölkerte der schottische SF-Schriftsteller Iain Banks (1954–2013) mit zahllosen intelligenten Robotern, die sich oft durch ihren hinterhältigen Witz auszeichnen.

Leiden am Roboter in der deutschen Rechtsprechung und in der EU-Gesetzgebung

Die mit TV-Produktionen wie "Downton Abbey" (2010–2015) oder "The Crown" (2016–) vom Adels- und Gesinde-Kitsch heimgesuchte britische Kultur mag eine besondere Affinität für ausgebeutete Mägde und Knechte haben, doch finden sich Einsichten zu Diensten von Robotern und KI längst auch in Entscheidungen deutscher Gerichte und amtlichen Dokumenten der Europäischen Union.

Das zweifelhafte Verdienst, womöglich zum ersten Mal auf Bedrohungen durch Künstliche Intelligenz hingewiesen zu haben, kommt dabei einem Berufssoldaten der Bundeswehr zu, der bereits im Jahr 1992 – offenbar in einem völlig aus dem Ruder gelaufenen Streit um den Nichtraucherschutz bei der Truppe – den Richtern vorwarf, für "die bloße Verteidigung des Gesetzes könne man auch einen reinen positivistischen KI-Roboter einsetzen" (Bundesverwaltungsgericht, Beschl. v. 03.09.1992, Az. 2 WDB 11.92).

Dies war eine hübsche Paradoxie: Während der Vorwurf an Richter sehr alt ist, sie arbeiteten als bloße "Subsumtionsautomaten" seelenlos die gesetzlich fixierten Normprogramme ab, fasste der sichtlich aufgebrachte Soldat seine Besorgnis der Befangenheit hier nun ausgerechnet im Eindruck zusammen, seine Richter wirkten wie Künstliche Intelligenzen – also wie Apparate, denen seither der höchstmögliche Grad menschenähnlicher Leistungen, ja deren gottgleiche Fortschreibung unterstellt wird.

Dass dieser rhetorische Fehlgriff nicht nur in dem Verfahren erfolglos, sondern seither auch in rechtswissenschaftlichen Erörterungen zu Schnittstellen zwischen Justiz- und KI-Apparaten unerwähnt blieb, mag damit zu tun haben, dass die Rechtsprechung noch übersichtlich ist.

Rechtsprechung zum technischen Fortschritt

Robotern begegnet der Richter bislang vor allem als Problem der Arbeitswelt. In einem Urteil des Landesarbeitsgerichts Hamm vom 11. Juli 2005 wird etwa – stellvertretend für viele Vorgänge dieser Art – die Ablösung menschlicher Arbeitskraft durch Roboter gut nachgezeichnet. Über den Tag hinaus reicht hier nicht nur das juristische Normprogramm. Erkennbar wird auch, wie sehr die Begründungslast des Arbeitnehmers, seine Entlassung sei nicht zu Recht erfolgt, bereits damals von der "Intelligenz" und Anpassungsfähigkeit der Roboter an ihre Umgebung abhängig zu werden begann (Az. 7 Sa 623/05).

Fortschritte auf technischem Gebiet dokumentiert die Rechtsprechung in vielen interessanten Details. Das Urteil des Bundesgerichtshofs (BGH) vom 22. Februar 2011 (Az. X ZR 144/08) gibt beispielsweise Aufschluss über die Interaktion zwischen Roboter und weiblichem Rind: "Der Computer aktiviert eine Einrichtung zum automatischen Anbringen von Melkorganen am Euter der Kuh zur Einleitung eines Melkvorgangs."

Als neu dokumentiert das Bundespatentgericht noch mit Beschluss vom 23. September 2016 (Az. 18 W [pat] 142/14) das Vermögen eines technischen Systems, die Gesichtsausdrücke eines Menschen im Umgang mit dem Roboter zutreffend zu interpretieren.

Über solche bereits verfügbaren technischen Systeme hinaus denkt insbesondere der europäische Gesetzgeber. Unter den teils unfassbar langatmigen Dokumenten, mit denen das Europäische Parlament sowohl die ökonomischen Chancen von KI und Robotik würdigen als auch ihre Risiken eingrenzen will, findet sich die – sehr viel unterhaltsamere – Auseinandersetzung mit der älteren Science-Fiction-Literatur.

In seiner Entschließung "Zivilrechtliche Regelungen im Bereich Robotik" vom 16. Februar 2017 erklärte das Parlament beispielsweise, dass die berühmten "Robotergesetze" des amerikanischen SF-Schriftstellers Isaac Asimov (1920–1992) für die Entwicklungsleistungen von Programmierern taugten – meinte jedoch, dass diese "nicht in einen Maschinencode umgewandelt werden" könnten.

Robotergesetze – eine Schnittstelle technischen und juristischen Denkens?

Diese Behauptung ist nicht unwidersprochen geblieben. Unter dem Titel "Asimovs Robotergesetze. Was leisten sie wirklich?" hat 2017 der Berliner Mathematiker Gunter Laßmann (1955–) ein kleines Buch vorgelegt, dass der Frage nachgeht, ob und mit welchen erwartbaren Wirkungen technisch denkbaren Maschinen die Regeln vorgegeben werden könnten, die Asimov seit dem Jahr 1939 in seinen einflussreichen Kurzgeschichten formuliert hatte.

Das Europäische Parlament zitiert diese "Robotergesetze" wie folgt:

"1) Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird. 2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3) Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert."

Laßmann zeigt nicht nur, dass diese "Gesetze" durchaus in einem begrenzten Umfang bereits in technischen Modellen umgesetzt werden können, sondern formuliert auch – für die juristische Betrachtung wichtig – die grundlegenden Bedenken an dem nur auf den ersten Anschein in sich normlogisch schlüssigen Regelungsprogramm. Für Angehörige des Justizapparats – als künftig wie gegenwärtig zum Richteramt Befähigte – mag mangels direkter Konfrontation mit KI-beseelten Maschinen einstweilen vor allem interessant sein, wie Laßmann die Voraussetzungen von Asimovs "Gesetzen" enthüllt:

Zu Recht verlangt Laßmann beispielsweise, dass ein Schadensniveau definiert werden müsse, wenn es heißt, dass kein Roboter zulassen dürfe, "dass einem menschlichen Wesen Schaden zugefügt wird". Was von menschlichen Normadressaten als sinnlose Zuspitzung verstanden würde, müsste ein programmierter Apparat ohne solche Nebendefinition schlicht umsetzen: Ein Roboterauto etwa dürfte gar nicht erst losfahren, weil es schon seine Abgase oder Fahrtgeräusche als potenzielle Schadenszufügung sensibler Straßenanrainer interpretieren könnte.

Menschliches Mitleid mit dem Roboter ist missbrauchsanfällig

Während sich Laßmanns kleines Buch damit einstweilen vor allem als kritische Übung zu den Grenzen ethisch-normativer Programmierung (teil-) autonomer technischer Systeme lesen lässt, macht es nebenbei auf einige Aspekte der KI- und Roboterentwicklung aufmerksam, die schon relevant sind, solange hohe Freiheitsgrade dieser Apparate noch Science Fiction bleiben.

Unter anderem eine Studie an der Universität Duisburg-Essen aus dem Jahr 2013 hatte etwa gezeigt, dass Menschen sich von Bildern körperlich misshandelter Roboter berührt fühlen.

Um sie im menschlichen Gegenstück zu einer Melkmaschine – beispielsweise in einer Flughafen-Abfertigung oder einem Einzelhandelsbetrieb – zu manipulieren, könnte ein von KI gesteuerter Roboter die Menschen in einer Interaktion mit Emotionen konfrontieren, die sich – so Laßmann – relativ leicht simulieren lassen: Ausdrucksformen von Trauer, Erstaunen, Erleichterung, Freude, Scham, Angst, Furcht oder Langeweile will der menschliche Beobachter auch im "Verhalten" einer Maschine entdecken, die über ein entsprechendes "Seelenleben" gar nicht verfügt.

Ein Pflege- oder Polizeiroboter, der durch Mustererkennung gelernt hat, dass er seiner menschlichen Klientel unheimlich ist, könnte beispielsweise durch eine leicht niedergeschlagene "Körperhaltung" oder ein leichtes Hinken eigene Hilfebedürftigkeit simulieren oder auf eine niedliche Stimme seines akustischen Repertoires zurückgreifen.

Sachverhalte dieser Art sind bereits rechtlich relevant, wenn es etwa um die Frage geht, ob Gewalt- oder pornografische Darstellungen, in denen Roboter als Geschädigte auftreten, nach §§ 131, 184 Strafgesetzbuch (StGB) zu bestrafen sind (BGH, Urt. v. 15.12.1999, Az. 2 StR 365/99).

Trainieren sich einerseits Roboter immer subtiler darauf, menschliche Anteilnahme zu provozieren, um damit beispielsweise die Sicherheitsbedürfnisse eines Flughafenbetriebs hoch effizient zu befriedigen, stellt sich andererseits die Frage nach dem Auftreten von Menschen, die sich bisher von Staats wegen eines stoisch gefühlsarmen Auftretensbefleißigen: Polizisten machen auf einfältige Seelen beispielsweise schon heute den Eindruck von Robotern (Landgericht Köln, Urt. v.21.12.2016, Az. 28 O 203/16). Mag sein, dass manch echter Roboter sie alsbald in Sachen emotionaler Performance überholt.

Womöglich geräteines Tages sogar der Stellenplan des Bundesamts für Verfassungsschutz unter Druck, sollte etwa eine KI das hartnäckige Argumentieren des Philosophen Daniel-Pascal Zorn (1981–) reproduzieren und den Social Media damit nicht nur den Zahn der braunen Unvernunft ziehen können.

Aktuell mögen Roboter und KI vor allem in der Science-Fiction sehr viel Raum einnehmen. Literaturhistoriker wissen: Daraus folgt zwar nicht unmittelbar das, was dort – etwa mit Geschichten zu vorwitzigen und schlagfertigen Maschinen – erzählt wird, jedoch hat sich die Fantasie davon, gleichwohl sozial wirkungsmächtig zu werden, nie abhalten lassen.

Zitiervorschlag

Künstliche Intelligenz: . In: Legal Tribune Online, 07.02.2021 , https://www.lto.de/persistent/a_id/44194 (abgerufen am: 02.11.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen