Wer haftet, wenn die KI Fehler macht?
Der Gesetzgeber und die Versicherer ringen mit den Risiken einer innovativen Technologie
Das Risiko, durch künstliche Intelligenz (KI) geschädigt zu werden, wächst. Von Unfällen beim autonomen Fahren war schon oft zu lesen. Doch die mit KI verbundenen Gefahren nehmen mit ihrer rasanten Verbreitung in allen erdenklichen Lebensbereichen stetig zu. Etwa in der Medizin, wo es aufgrund von Datenverzerrungen oder falschen Auskünften von KI-Systemen zu Fehldiagnosen kommen kann. Auch Operationsfehler sind möglich, wenn die Steuerung der OP-Roboter versagt. Im Finanzwesen können falsche Abklärungen, welche von Banken oder Beratungsunternehmen verwendet werden, grosse Schäden verursachen. In der Industrie ist in diesem Zusammenhang an fehlgelenkte Lagerroboter, welche Sachschäden an gelagerten Gütern verursachen, zu denken. Es stellt sich die Frage, wer für solche und ähnliche Schadenfälle die Verantwortung übernimmt.
Genügt das aktuelle Haftpflichtrecht?
Diese Frage wird immer dringender, denn immer mehr Unternehmen setzen auf KI. Im Jahr 2024 hatten bereits 55 Prozent der Schweizer KMU künstliche Intelligenz in ihre Arbeitsprozesse integriert, wie eine von der AXA Schweiz in Auftrag gegebene Arbeitsmarktstudie des Forschungsinstituts Sotomo zeigt.
Klare Haftungsregeln sind für die Entwicklung und den Einsatz von neuen Technologien wie der künstlichen Intelligenz wichtig. Das Fehlen solcher Regeln kann Unternehmen abhalten, KI in die Geschäftsabläufe einzuführen, es kann Entwickler abschrecken, an KI zu arbeiten und nicht zuletzt Versicherer daran hindern, passende Versicherungsprodukte für die Haftung anzubieten.
In der Schweiz gibt es derzeit keine spezialgesetzlichen Haftungsregeln für KI. Das heisst nicht, dass wir uns diesbezüglich in einem rechtsfreien Raum bewegen. Das schweizerische Haftpflichtrecht ist mit seinen Generalklauseln grundsätzlich geeignet, neue technische Entwicklungen zu erfassen und dafür Lösungen anzubieten. Die Haftung bestimmt sich somit nach allgemeinen vertraglichen und ausservertraglichen Haftungsregeln. Ausserdem gibt es spezifische verschuldensunabhängige Gefährdungshaftungen: Zum Beispiel die Haftung des Motorfahrzeughalters, die selbstfahrende Autos einschliesst. Ebenso die Haftpflicht des Halters von Luftfahrzeugen, welche für autonome Drohnen gilt. Auch das Produktehaftpflichtgesetz bietet Schutz. Dieses regelt die ausservertragliche verschuldensunabhängige Haftung eines Herstellers für Schäden an Personen oder Sachen zum privaten Gebrauch, die durch fehlerhafte Produkte verursacht wurden. Software und KI-Systeme qualifizieren als Produkte im Sinne des Produktehaftpflichtgesetzes. Dies ist jedoch umstritten und wurde vom Bundesgericht noch nicht geklärt. Ob eine Anpassung des Gesetzes – besonders im Hinblick auf die neue europäische Produkthaftungsrichtlinie – erforderlich ist, bleibt zu prüfen.
Es ist festzuhalten, dass künstliche Intelligenz anders als Personen oder Gesellschaften nicht als Rechtspersönlichkeit haften kann. Vielmehr ist sie ein technisches Hilfsmittel einer natürlichen oder juristischen Person, die für die entsprechenden Risiken verantwortlich ist. Als Haftungssubjekte in Frage kommen deshalb etwa der Nutzer von KI, der Hersteller und Entwickler von KI, oder der Importeur, wenn sie in die eingangs beschriebenen Schadenszenarien involviert sind.
Komplex und intransparent
Dennoch gibt es bei der Haftung für von künstlicher Intelligenz verursachte Schäden Besonderheiten zu beachten. Die Frage ist, ob dies eine Anpassung der ausservertraglichen Haftungsregeln verlangt. Die Komplexität und Undurchsichtigkeit von KI-Systemen kann zu Schwierigkeiten beim Kausalitäts- und Verschuldensnachweis führen. Der Geschädigte muss nämlich den Nachweis erbringen, dass ein unrechtmässiges Verhalten für einen Schaden ursächlich war.
Bei diesen Problemkreisen knüpft der Vorschlag der Europäischen Kommission für eine Richtlinie über die KI-Haftung an. Im Entwurf dieser Richtlinie werden Anbieter im Schadenfall verpflichtet, dem Geschädigten die ihnen vorliegenden Beweismittel über Hochrisiko-Systeme offenzulegen. Für alle KI-Systeme soll unter bestimmten Voraussetzungen zudem eine widerlegbare Vermutung der Kausalität zwischen der künstlichen Intelligenz und dem Schadenereignis gelten.
Auch in der Schweiz wird geprüft, ob eine Anpassung der Haftungsregeln erforderlich ist. Der Bundesrat hat sich im Februar 2025 für einen schweizerischen Regulierungsansatz für KI entschieden. Die Schweiz soll die Konvention des Europarats zu künstlicher Intelligenz ratifizieren und die dafür notwendigen Anpassungen im Schweizer Recht vornehmen. Nach Auffassung des federführenden Bundesamtes könnte eine Übernahme der diskutierten EU-Richtlinie über KI-Haftung die Durchsetzung von zivilrechtlichen Ansprüchen erleichtern. Es seien jedoch die zusätzlichen Analysen und Ergebnisse der Diskussionen in der EU zu der Richtline abzuwarten.
Nicht nur beim Gesetzgeber besteht möglicher Handlungsbedarf. Auch Unternehmen sollten ihre Vertragswerke überprüfen und nötigenfalls anpassen. Ein genauer Blick ist besonders bei den Haftungsregeln angezeigt.
Haftpflichtversicherungen können das Vermögen des Herstellers, Importeurs oder des KI-Verwenders vor Forderungen des Geschädigten schützen. Als Rahmen gelten die vertraglich vereinbarten Leistungsvoraussetzungen.
Versicherer suchen Lösungen
Auch wenn der Begriff "künstliche Intelligenz" in den herkömmlichen Haftpflicht-Versicherungsprodukten nicht vorkommt, stellt sich im einzelnen Schadenfall trotzdem die Frage der Deckung. Werden Ansprüche im Zusammenhang mit der Abgabe von Software in den Allgemeinen Versicherungsbedingungen (AVB) ausgeschlossen, wird oft keine Deckung bestehen, wenn KI involviert ist. Gleiches kann bei Ausschlüssen für Cyber-Ereignisse gelten, wobei es dort darauf ankommt, wie das Cyber-Ereignis in den AVB umschrieben worden ist.
Erste Versicherungsunternehmen bieten zwar spezifische Haftpflicht-Versicherungslösungen für KI-Algorithmus- und Leistungsrisiken an. Diese Produkte stecken jedoch noch in den Kinderschuhen. Um diesbezügliche Streitigkeiten zu vermeiden, sind in jedem Fall klare Deckungsvoraussetzungen, -begrenzungen und -ausschlüsse zu definieren.

