Bisher nimmt uns die KI "nur" bestimmte Aufgaben ab. Wir sollten uns aber auf den Tag vorbereiten, an dem Maschinen Rechte beanspruchen könnten, meint Karsten Gaede. Die KI-Strategie müsse weiter als zur nächsten marktfähigen Anwendung reichen.
Im Star-Trek-Universum ist es längst real: Der Android Data erfüllt Aufgaben, ohne deren Bewältigung das fliegende Gemeinwesen der U.S.S. Enterprise kläglich gescheitert wäre. Auch für uns ist Künstliche Intelligenz (KI) bedeutsam. KI ist das omnipräsente Stichwort unserer Zeit. Marketingfreundlich verwenden wir den Begriff schon dann, wenn Technik Aufgaben erfüllt, die einst Menschen vorbehalten waren. Uns umgeben zwar bereits Systeme, die autonom zu Wahrnehmungen und Lernprozessen fähig sind. Wir sprechen hier aber von sogenannter schwacher KI. Ein Data und damit eine starke KI, die sich ihrer selbst bewusst ist, wird in nächster Zeit nicht vor uns stehen.
Im 21. Erdjahrhundert wissen wir, dass die KI im globalen Wettstreit der Förderung, ihre Anwendung aber der Regulierung bedarf. Heute investiert auch Europa massiv in KI. Ethisch eingerahmte KI-Strategien sprießen aus dem Boden. Proklamationen versichern uns, dass wir unsere menschliche Würde im Zeitalter der Digitalisierung nicht aufgeben müssen. Zumal KI-Forscher beteuern, dass in ihren Labs keine feindliche KI à la Westworld lauert, scheint unsere KI-Zukunft rosig.
Tatsächlich haben unsere Strategien eine zentrale Schwachstelle. Gemeint ist nicht die Frage, ob wir wirklich genug für den KI-Wirtschaftsstandort Europa tun. Diese und weitere Fragen werden bereits produktiv debattiert. Was im Grundsätzlichen aber fehlt, ist eine Strategie, die auch das Unvorstellbare fokussiert – die Kreation der starken KI.
KI-Entwicklung bisher Privatsache
Diese These wirkt zunächst weltfremd. Heute ist niemand imstande, menschliches Bewusstsein zu reproduzieren. Es erscheint nur klug, dass wir uns der schwachen KI widmen, mit der wir einzelne humane Fähigkeiten anwendungsbezogen rekonstruieren und optimieren. Schon dies stellt uns vor enorme Herausforderungen, die von autonomen Fahrzeugen, drohenden Verwerfungen infolge der revolutionierten Arbeitswelt bis hin zur Entmenschlichung der Pflege reichen.
Dennoch sollten wir die starke KI nicht ausklammern: Alle Industriestaaten und Konzerne richten ihren Eifer fieberhaft und mit Milliardenvolumina darauf, die KI zu revolutionieren. In der panischen Angst, in Wirtschaft, Medizin und Militär abgehängt zu werden, schaffen wir einen neuen Wissensstand, der sich auch für ambitioniertere KI-Forschung nutzen lässt. Zum Beispiel mit dem Human Brain Project der Europäischen Kommission wollen wir das menschliche Gehirn vollständig rekonstruieren. Und es gibt schon jetzt Forscher, die methodengeleitet an Allzweck-KIs arbeiten oder selbstbewusste Roboter kreieren wollen.
Was weltweit an Forschung etwa im Bereich militärisch nutzbarer KI entsteht, unterliegt dabei keiner Anzeigepflicht. Auch die Forscher, die uns friedliche KI versprechen, haben keine volle Einsicht. Zielen Forscher nicht auf konkrete Anwendungen, die auf Sicherheit und rechtliche Akzeptanz zu prüfen wären, können sie den eigenen Ideen frei nachgehen.
Der Mensch hat sich schon mehrmals selbst übertroffen
Unser Unwissen bekümmert uns aber wenig. Zum einen zerstreuen KI-Forscher aktuelle Sorgen. Zum anderen glauben wir explizit oder implizit, dass das kohlenstoffbasierte Wunder, als das wir uns Menschen empfinden, nicht ernsthaft aus Silicium und Programmcode nachgebaut werden kann. Ein bemerkenswertes Gottvertrauen lässt uns die Idee abwegig erscheinen, Menschen könnten eine künstliche Spezies erschaffen.
Wer so denkt, mag auch im 22. Erdjahrhundert Recht behalten. Gleichwohl hat die Menschheit ihre eigene Vorstellungskraft schon mehrfach gesprengt. KI ist längst darauf angelegt, sich selbst auf eine Art und Weise fortzuentwickeln, die Menschen nicht mehr nachvollziehen können. Wir stehen vor Rechenkapazitäten, die das Vermögen menschlicher Gehirne weit übertreffen. Es geht nicht nur darum, unsere eigene Kreativität vorherzusagen.
Der Bedarf, die Perspektive der starken KI ernst zu nehmen, muss nun nicht zusätzlich mit der Horrorvision feindlicher Superintelligenzen unterstrichen werden. Es genügt der Fakt, dass wir schlicht nicht wissen, ob die KI der Zukunft unsere Ansichten über Moral und Recht teilen würde, so wie Data es tut. In jedem Fall wäre die starke KI ein enormes Politikum.
Steht auch nur im Raum, dass wir eine KI erschaffen haben, die ihre Autonomie behauptet, wäre ihr Status zu klären. Vorstellungen von einer Technik, die uns zu dienen hat, wären ins Mark getroffen. Wir müssten uns fragen, ob wir als moderne Sklavenhalter agieren wollen. Auch der Ausweg, auf das vielleicht fehlende Gefühlsleben der Maschine zu verweisen, wäre trügerisch. Nach den bisher tragenden Moral- und Rechtsfundamenten spielt die Emotionalität etwa im Umgang mit Tieren tatsächlich keine entscheidende Rolle. Schon Kant hat die Würde des Menschen, mit der wir uns über andere Existenzen stellen, nur als einen Anwendungsfall der Würde gesehen – sie steht jedem zur Autonomie befähigten Wesen zu.
Mensch und starke KI gleichgestellt?
Verweigern wir der starken KI Rechte, müssten wir damit rechnen, dass sie uns unablässig mit ihrer Forderung nach Gleichstellung konfrontieren wird. Selbst der Schluss, dann eben die Koexistenz von Menschen und Maschinen zu akzeptieren, ließe den Strom der Fragen nicht abreißen: Es bliebe offen, wie endliche Ressourcen zwischen Menschen und prinzipiell unsterblichen Maschinen zu verteilen wären. Es bliebe offen, wie wir das Recht gegenüber vielleicht fehlbaren neuen Rechtssubjekten durchsetzen sollten. Unsere bald digital vernetzte Rechtsdurchsetzung könnte im Angesicht der KI versagen.
Es kommt hinzu, dass KI nicht nur gefährlich sein könnte, wenn die Vision der starken KI Wirklichkeit wird. Bereits die zunehmende Imitation menschlicher Autonomie durch KI-Systeme, die vermehrt körperlich in Kontakt mit Menschen treten, birgt durch unbedachte Vorgaben und autonomes Lernen Risiken. Und auf der unkontrollierten Suche nach dem heiligen Gral der KI könnten Forscher bereit sein, übermäßige Gefahren einzugehen.
Was also ist zu tun? Zuallererst dürfen wir die KI-Entwicklung nicht nur verfolgen, um die leistungsfähigste KI zu identifizieren und zu verwerten. Wir müssen mehr tun: Einschlägige Forschung darf nicht länger Privatsache bleiben, nur weil sie keine marktgängige Anwendung betrifft. Auch die Förderung und die Entwicklung starker KI muss überwacht werden.
Die europäisch und weltweit umzusetzende Pflicht zur Beobachtung und Evaluation ist aber nicht alles. Denn nicht die Strategie von Google oder eines Forscherzirkels, sondern Parlamente müssen darüber befinden, ob wir das Koordinatensystem der menschlichen Existenz durch eine starke KI neu vermessen wollen. Der Gesetzgeber muss entsprechende Forschung demokratisch einbinden und vielleicht begrenzen. Jedenfalls die Kreation konzeptionell menschengefährdender KI müssen wir in Zukunft Verboten unterwerfen. Bemühungen hierzu sind nicht zuletzt im Hinblick auf autonome Waffen keineswegs verfrüht, zumal Regelungen international auszuarbeiten bleiben.
Forschungsfreiheit gegen Vorsorgeprinzip
KI-Forscher werden Einschränkungen durch das Recht die Forschungsfreiheit und die gesellschaftsnützliche Erschließung der schwachen KI entgegenhalten. Die notorische Thematisierung hypothetischer Risikoszenarien verteufele die friedliche Nutzung der KI, heißt es oft. Daran ist richtig, dass wir vage langfristige Perspektiven nicht für unverhältnismäßige Restriktionen heranziehen dürfen.
Das Recht kennt aber jenseits konkreter Gefahrenabwehr auch die Risikovorsorge, die wir etwa im Bereich der Gentechnik verfolgen. Und zur Vorsorge besteht Anlass, weil es nicht nur im Fall der feindlichen KI um grundstürzende Fragen unseres Gemeinwesens ginge. Sie können schwerlich dem technischen Fortschritt überlassen bleiben. Die Politik muss ihren Blick deshalb ernsthaft auf Entwicklungen richten, welche die starke KI begünstigen. Dass ihre Kreation ausgeschlossen ist, sichern uns die KI-Forscher nämlich nicht zu.
Im Gegenteil: Sie rühmen die Potentiale der KI in nahezu jedem anderen Kontext. Es ist dann aber entschieden zu wenig, die Aufarbeitung unserer Annäherung an die starke KI der Science-Fiction zu überlassen. Auch Data hätte dies aus der Perspektive der Menschen nicht für vernünftig gehalten.
Der Autor Prof. Dr. Karsten Gaede ist Professor an der Bucerius Law School in Hamburg. Er beforscht die Herausforderungen, die der KI-Einsatz auch langfristig mit sich bringt.
Regulierung starker Künstlicher Intelligenz: . In: Legal Tribune Online, 28.10.2019 , https://www.lto.de/persistent/a_id/38419 (abgerufen am: 20.11.2024 )
Infos zum Zitiervorschlag