Künstliche Intelligenz hat bereits in vielen Bereichen enorme Fortschritte gebracht - beispielsweise in der Medizin und Pflege oder im Verkehr. Häufig können Künstliche Intelligenzen besser als Menschen Steuererklärungen erstellen oder Lungenkrebs diagnostizieren.
Während die Technik weiter voranschreitet, stolpert das „Recht“ noch hinterher. Gesetze speziell für Künstliche Intelligenz fehlen. Dabei stellen sich juristisch immer wieder neue Fragen. Wer haftet, wenn Künstliche Intelligenz beispielsweise eine falsche medizinische Diagnose stellt? Das System selbst, der Arzt, das Krankenhaus, der Hersteller? Fragen, mit denen sich dieser Beitrag auseinandersetzen möchte.
Herausforderung „Künstliche Intelligenz“
Bei früheren IT-gesteuerten Systemen ließ sich das „Verhalten“ von Software grundsätzlich genau vorhersagen. Heutzutage verfügen Künstliche Intelligenzen jedoch über die Fähigkeit, selbstständig zu lernen und ihre Verhaltensweisen teils sogar selbstständig anzupassen. Eine Vorhersage des konkreten Verhaltens kann häufig nicht mehr getroffen werden. Je mehr sich Künstliche Intelligenzen verselbstständigen, desto problematischer erscheint es, eine rechtliche Zurechnung zu Hersteller und Nutzer zu treffen.
Wer haftet für Fehler Künstlicher Intelligenz?
Fraglich ist insbesondere, wie die Unvorhersehbarkeit der Ergebnisse beim Einsatz intelligenter IT-Systeme haftungsrechtlich zu behandeln ist und ob nicht vorhersehbare Fehlsteuerungen noch dem Betreiber oder Hersteller des intelligenten Systems zugerechnet werden können. Grundlage des deutschen Haftungsregimes ist stets ein menschliches Fehlverhalten. Da Künstliche Intelligenz gegenüber althergebrachten IT-gesteuerten Systemen jedoch quasi selbst lernen und ihre Verhaltensweisen anpassen kann, lässt sich deren Verhalten oft nicht mehr genau vorhersagen. Damit rücken grundlegende juristischen Fragen in den Mittelpunkt des Interesses: Kann überhaupt noch ein Fehlverhalten angenommen werden, wenn das intelligente System letztlich „eigene“ Entscheidungen und Handlungen trifft? Oder agiert dieses eher so „selbstständig“, dass es als eigenes Rechtssubjekt betrachtet werden muss und somit alleine haftet? Und falls ja: Wer trägt in diesem Fall die Verantwortung für Fehler der Künstlichen Intelligenz?
Die Beantwortung dieser Fragen hat enorme praktische Auswirkungen: Je weiter der Grad an Eigenständigkeit zunimmt und je autonomer Maschinen agieren, desto mehr könnte die Verantwortung der Menschen in den Hintergrund rücken. Der Mensch wird seine Verantwortung immer öfter mit dem Hinweis darauf bestreiten, dass er sich voll und ganz auf die intelligente Technik verlassen durfte, da es schließlich der Sinn der Automatisierung und der Künstlichen Intelligenz sei, die so ausgestatteten Geräte nicht mehr ununterbrochen anleiten und überwachen zu müssen. Dies birgt die Gefahr, dass letztlich die Allgemeinheit für Fehler intelligenter Systeme zur Verantwortung gezogen wird.
Wann haftet der Nutzer?
Das geltende Haftungsregime sieht bereits Regelungen der Haftung für technische Systeme vor. Die Haftung desjenigen, der ein technisches System einsetzt, richtet sich zumeist nach dessen Verhalten und dessen Verschulden. Eine Haftung des Betreibers eines IT-Systems kommt danach grundsätzlich nur in Betracht, wenn ihm dabei ein vorwerfbares Fehlverhalten zur Last gelegt werden kann. Trifft ihn kein Verschulden - zum Beispiel, weil der Betreiber das System ordnungsgemäß betrieben und gewartet hat - handelt er nicht vorwerfbar.
Dies birgt das Risiko von Haftungslücken. Denn auch, wenn ein intelligentes System ordnungsgemäß betrieben und gewartet wird, könnte gerade dadurch ein Schaden entstehen, wenn das selbstlernende System auf Basis des Erlernten „Fehlschlüsse“ zieht und danach agiert. Diese Schäden hätten gegebenenfalls auch durch einen vorschriftsmäßigen Einsatz der Systeme nicht verhindert werden können. Außerdem entstehen in Fällen, in denen mehrere intelligente Systeme, womöglich von unterschiedlichen Herstellern, miteinander interagieren, Verantwortungslücken, die das bestehende Haftungsregime derzeit nicht zu beheben vermag. In diesen Situationen wird es teilweise nicht mehr, oder nur mit erheblichem technischen und organisatorischen Aufwand, möglich sein, im Schadensfall die verantwortliche Person oder den Verantwortungsbeitrag zu ermitteln.
Wann haftet der Hersteller?
Der Hersteller eines fehlerhaften Produkts haftet grundsätzlich nach den Bestimmungen der Produkt- und Produzentenhaftung. Bei der Produkt- und Produzentenhaftung handelt es sich um ein seitens der Rechtsprechung entwickeltes Haftungskonstrukt, wonach der Hersteller eines Produktes auf Schadensersatz haftet, wenn er sich "rechtlich vorwerfbar" verhält. Rechtlich vorwerfbar ist beispielsweise, wenn der Hersteller seine Produkte während der Produktion nicht auf Produktionsfehler überprüft oder ein zunächst fehlerfrei aussehendes Produkt ausliefert, dieses aber nach Auslieferung nicht ausreichend überwacht. Der Hersteller muss also stets den belieferten Markt im Auge behalten, um schnellstmöglich reagieren zu können, falls doch noch Fehler oder Gefahren am Produkt entdeckt werden. Dies dürfte insbesondere für im Nachhinein festgestellte Mängel gelten.
Allerdings sind auch hier einige Schwierigkeiten zu beachten: Zwar haftet grundsätzlich ein Hersteller, der mit dem Inverkehrbringen eines fehlerhaften Produktes eine Gefahrenquelle schafft. Ein Anspruch besteht jedoch nur, wenn eines der durch die Produzentenhaftung geschützten Rechtsgüter, wie Leben, Körper, Gesundheit oder Eigentum, verletzt ist. Bloße Vermögensschäden sind nicht geschützt.
Vor diesem Hintergrund ist das Haftungspotential schon deutlich eingeschränkt. Erschwerend kommt aber hinzu, dass eine Produkthaftung des Herstellers ausgeschlossen ist, wenn Fehler nach dem Stand von Wissenschaft und Technik nicht erkannt werden konnten, als das Produkt auf den Markt gebracht wurde. Hier wird erst die Zukunft zeigen, wie sich diese Rahmenbedingungen beim fehlerbehafteten Einsatz Künstlicher Intelligenz auswirken werden.
Brauchen wir ein neues Haftungsregime?
Aufgrund der haftungsrechtlichen Herausforderungen, vor die die Entwicklung der Künstlichen Intelligenz unser zivilrechtliches Haftungssystem stellt, wird vielfach eine Neuregelung des Schadensrechts durch den Gesetzgeber gefordert. Nicht nur Wissenschaftler, sondern auch das Europäische Parlament haben bereits Lösungswege präsentiert.
Wohl keine Lösung: Die Anerkennung der „E-Person“
Um der Verselbstständigung der Künstlichen Intelligenz gerecht zu werden und die Haftung interessengerecht zu regeln, erwägt das EU-Parlament unter anderem, intelligente Systeme als eigene Rechtssubjekte anzuerkennen und ihnen sogar grundrechtliche Positionen zuzusprechen. Hätte ein Roboter einen eigenen rechtlichen Status, könnte er über diesen Status auch für seine Handlungen und Entscheidungen selbst verantwortlich gemacht werden. Verursacht ein intelligentes System zum Beispiel einen Schaden, könnte es direkt auf Schadensersatz verklagt werden. Gäbe es Erklärungen im eigenen Namen ab, würde es selbst Vertragspartner und damit Träger von Rechten und Pflichten.
Die Einführung einer E-Person birgt jedoch einige Herausforderungen. Fraglich ist, ob und vor allem wie Künstliche Intelligenzen eigenes Vermögen aufbauen sollen, ob sie für ihre Arbeit entlohnt werden sollen und ob für sie ein öffentliches - dem Vereins- oder Handelsregister ähnliches - Register geschaffen werden sollte, in das diese zu Zwecken der Identifikation einzutragen sind.
Viele Rechtswissenschaftler kritisieren den Vorschlag des Europäischen Parlaments. Sie argumentieren, dass der Forderung einer eigenen Rechtspersönlichkeit von intelligenten Systemen ein erheblich überschätzter Entwicklungsstand zugrunde gelegt würde. Des Weiteren wird befürchtet, dass einer Maschine jeder Anreiz fehle, ihre Haftungsmasse nicht willkürlich zu gefährden, weil sie anders als ein Mensch nicht darauf bedacht sei, ihre Existenz zu sichern und dass Hersteller sich ihrer Verantwortung entziehen könnten, da die Haftungsmasse - vergleichbar einer GmbH - auf die E-Person beschränkt wäre. Man sieht in der Schaffung einer E-Person zudem nicht nur rechtliche, sondern auch ethische Probleme: ein Persönlichkeitsstatus für fortgeschrittene intelligente Systeme könne nicht vom Modell der „natürlichen Person“ abgeleitet werden, da ein Roboter dann Menschenrechte genieße und eine gewisse Würde oder Integrität sowie Bürgerrechte für sich beanspruchen könne, was jedoch im Widerspruch zur Europäischen Grundrechtecharta und zur Konvention zum Schutz der Menschenrechte und Grundfreiheiten stünde.
Wohl nicht zielführend: Umfassende Herstellerhaftung
Im Fokus der Diskussion steht außerdem die Frage, ob die Produzenten- und Produkthaftung, die unser Haftungssystem für Hersteller vorsieht, ausgedehnt werden sollte und Hersteller von KI alleine zur Verantwortung gezogen werden sollten. Da ein Hersteller den Einsatz des intelligenten Systems aber nur bedingt beeinflussen kann, erscheint es unbillig, eine Haftungsverschiebung zu Gunsten des Betreibers der Künstlichen Intelligenz vorzunehmen. Außerdem werden intelligente Systeme gezielt von Menschen eingesetzt, die - auch wenn Künstliche Intelligenzen selbstständig lernen - aus deren Verwendung einen Nutzen ziehen.
Auch wenn eine umfassende Haftung der Hersteller abzulehnen ist, stellt sich die Frage, ob eine Ausdehnung der Produzenten- und Produkthaftung nicht dahingehend erfolgen sollte, dass Hersteller jedenfalls dann, wenn Künstliche Intelligenz ethische Grundsätze missachtet, besondere Pflichten treffen. Diese Frage stellt sich insbesondere vor dem Hintergrund der von einer von der EU-Kommission berufenen unabhängigen Expertengruppe für Künstliche Intelligenz entwickelten ethischen Leitlinie für die Entwicklung vertrauenswürdiger Künstlicher Intelligenz.
In zahlreichen Fällen hat sich herausgestellt, dass nicht nur Menschen, sondern auch Algorithmen diskriminieren können. In einem Fall benachteiligte beispielsweise eine von Amazon eingesetzte Software, die mittels Künstlicher Intelligenz ein Ranking der eingegangenen Bewerbungen erstellen sollte, - wenn auch unbeabsichtigt - weibliche Bewerberinnen. In einem anderen Fall erstellte ein Computerprogramm, das Rückfallwahrscheinlichkeiten für Straftäter berechnen sollte, anhand derer Bewährungsentscheidungen getroffen werden sollten, unterschiedliche, fehlerhafte Ergebnisse für schwarze und weiße Angeklagte: Während es bei weißen Angeklagten häufig zu deren Gunsten falsch lag, traf es bei schwarzen Angeklagten öfters zu deren Ungunsten falsche Entscheidungen.
Da derlei intelligente Systeme i.d.R. nicht fehlerhaft im Sinne des Produkthaftungsgesetzes sind, wäre eine Haftung des Herstellers nach derzeit geltendem Recht in den allermeisten Fällen ausgeschlossen.
Die intelligenten Systeme wurden jedoch ideologisch trainiert und mit vorurteilsbelasteten Datensätzen „gefüttert“. Daher sollten die Hersteller jedenfalls dann, wenn Künstliche Intelligenz ethische Leitlinien verletzt, die Pflicht treffen, zum Beispiel eine Zurücksetzung des intelligenten Systems dergestalt vorzunehmen, dass es im Einklang mit den von der Expertengruppe entwickelten ethischen Leitlinien agiert. Die EU-Kommission erörtert derzeit, wie sich die Regelungen der Produkthaftung diesbezüglich anpassen lassen.
Mögliche Lösung: Gefährdungshaftung
Neben einer Pflicht für Hersteller, eine Software anzuhalten, gewisse ethische Rahmenbedingungen einzuhalten, erscheint es sinnvoll, eine verschuldensunabhängige Haftung des Nutzers eines intelligenten Systems, wie unser Haftungssystem sie für Kraftfahrzeuge (Halterhaftung) oder Tiere (Haftung des Tierhalters) bereits vorsieht, auf Künstlicher Intelligenz zu übertragen. Dies erwägt derzeit auch das EU-Parlament.
Gefährdungshaftungstatbestände, wie z.B. im Straßenverkehr, sehen vor, dass derjenige, der eine gefährliche Sache nutzt, für entstandene Schäden verschuldensunabhängig haftet, und zwar schon deshalb, weil er eine Gefahrenquelle geschaffen hat, deren Betriebsgefahr sich nie vollständig reduzieren lässt.
Diese nach dem geltenden Haftungsregime bestehenden Regelungen, die bereits eine Haftungszuweisung auch bei nicht vollständig beherrschbaren Technologien vorsehen, lassen sich jedenfalls momentan noch auf den Bereich der Künstlichen Intelligenz übertragen. Derzeit ist nur die Programmierung sogenannter „schwacher“ Künstlicher Intelligenz möglich, also von Künstlicher Intelligenz, die eine konkrete Problemlösung zum Gegenstand hat und noch im Rahmen der von Menschen vorgenommenen Programmierung agiert. Intelligente Systeme, die ein „Bewusstsein“ oder gar Kreativität besitzen und vollständig autonom agieren, stellen derzeit noch eine Zukunftsvision dar. Solange IT-Systeme aber noch im Rahmen der Programmierung verharren, kann immer noch an ein menschliches Handeln angeknüpft und somit auf die Gefährdungshaftung zurückgegriffen werden.
Fazit: Ein gänzlich neues Haftungsregime ist (noch) nicht vonnöten
Auch wenn Künstliche Intelligenzen hochkomplexe Systeme darstellen, deren Verhalten nur bedingt vorhersehbar ist und die teilweise selbstständig lernen können, handeln sie - jedenfalls derzeit noch - im Rahmen der von Menschen vorgegebenen Programmierungen. Auf den ersten Blick scheint die Entwicklung der Künstlichen Intelligenz das Zivilrecht vor neue Herausforderungen zu stellen. Tatsächlich offenbart sich bei näherem Hinsehen jedoch, dass die geltende Rechtsordnung, insbesondere mitsamt der bestehenden Rechtsinstitute im Haftungsrecht - jedenfalls solange, wie der Entwicklungsschritt zu vollends autonom agierenden, „starken“ Künstlichen Intelligenzen noch nicht weiter fortgeschritten ist - geeignet ist, die Risiken, die durch den Einsatz intelligenter Systeme entstehen, zuzuweisen. Es bedarf aber geringer Anpassungen, wie einer eingeschränkten Herstellerhaftung oder einer Gefährdungshaftung des Verwenders.