Das Landgericht Kiel hat in einem wegweisenden Urteil entschieden, dass Unternehmen für durch Künstliche Intelligenz (KI) verursachte Falschinformationen haften. Dies gilt insbesondere, wenn sie bewusst ein fehleranfälliges System einsetzen und die inhaltliche Verantwortung übernehmen. Dieses Urteil ist von besonderer Bedeutung, da es sich um eine der ersten deutschen Entscheidungen zur Haftung für KI-generierte Inhalte handelt.
Sachverhalt: Falsche Unternehmensangaben auf Informationsportal
Die Beklagte betrieb ein Online-Informationsportal, das Daten zur finanziellen Situation von Unternehmen bereitstellte. Hierfür nutzte sie ein vollautomatisiertes KI-Verfahren, das Pflichtveröffentlichungen aus dem Bundesanzeiger, dem Handels- und dem Insolvenzregister auswertete. Die gewonnenen Daten wurden verknüpft, übersichtlich dargestellt und interaktiv visualisiert. Nutzer konnten durch Eingabe von Suchbegriffen Informationen abrufen, die nach einem von der Beklagten vorgegebenen Muster angezeigt wurden.
In ihren Allgemeinen Geschäftsbedingungen (AGB) wies die Beklagte darauf hin, dass die Daten durch vollständig automatisierte Analysen gewonnen werden und teils oder auch weitgehend fehlerbehaftet sein können.
Aufgrund eines Verarbeitungsfehlers wurden falsche Informationen über die Klägerin, ein Unternehmen, angezeigt. Es wurde fälschlicherweise angegeben, dass die Klägerin wegen Vermögenslosigkeit gelöscht werde. Diese Information stammte jedoch von einer anderen Firma und wurde durch das automatische Analyseverfahren der Beklagten falsch zugeordnet.
Nach Aufforderung löschte die Beklagte den fehlerhaften Eintrag. Eine ebenfalls verlangte Unterlassungserklärung und die Zahlung der anwaltlichen Kosten lehnte sie jedoch ab. Sie argumentierte, dass es sich um einen vollautomatisierten Prozess handle und sie daher persönlich keinen Fehler treffe.
Urteil: Unternehmen haften für KI-generierte Inhalte
Das Landgericht Kiel entschied, dass die Beklagte als unmittelbare Störerin haftet. Obwohl der Fehler durch die eingesetzte KI-Software verursacht wurde, trägt die Beklagte die Verantwortung, da sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht.
Das Gericht führte aus:
"Die Beklagte ist jedoch als unmittelbare Störerin anzusehen, weil sie sich willentlich zur Beantwortung von Suchanfragen einer eigenen Software bedient, die Informationen aus den veröffentlichten Pflichtmitteilungen extrahiert und aufbereitet veröffentlicht. Die Beklagte kann sich nicht darauf zurückziehen, sie sei an diesem automatischen Vorgang nicht beteiligt gewesen, weil sie sich bewusst zur Beantwortung von Suchanfragen ihrer Nutzer einer künstlichen Intelligenz bedient hat, die in Fällen wie diesem unzulänglich programmiert war, weil sie nicht erkannt hat, dass vorliegend die XXX, Amtsgericht XXX HRB XXX, gemeint war und ein Zuordnungsfehler (XXX vs XXX) vorlag (...)."
Zudem stellte das Gericht fest, dass der Betreiber eines Portals auch dann als unmittelbarer Störer für die von einem Dritten eingestellten Inhalte haftet, wenn er sich diese aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu eigen gemacht und dafür nach außen erkennbar die inhaltliche Verantwortung übernommen hat.
Die Beklagte hatte die Pflichtveröffentlichungen zu einem Unternehmen auf ihrer Seite gebündelt und die Informationen teilweise untereinander verknüpft. Dies schuf den Eindruck, dass sie die inhaltliche Verantwortung für die dargestellten Informationen übernahm.
LG Kiel, Urteil vom 29.02.2024, Az.: 6 O 151/23
Praxishinweis: Konsequenzen für den Einsatz von KI-Systemen
🚫📄 Unternehmen, die KI-Technologien einsetzen, können ihre Haftung nicht durch einen bloßen Hinweis in den AGB, dass Fehler möglich sind, ausschließlen. Sie müssen daher sicherstellen, dass ihre KI-Systeme zuverlässig arbeiten und keine falschen Inhalte generieren. Insbesondere ist auf folgende Aspekte zu achten:
Zuverlässigkeit der Systeme🔍✅: KI-Technologien sollten regelmäßig überprüft und aktualisiert werden, um Verarbeitungsfehler zu minimieren.
Verantwortungsübernahme📝🔒: Unternehmen müssen sich darüber im Klaren sein, dass sie für die Inhalte ihrer KI-Systeme haften, insbesondere wenn diese in einer Weise präsentiert werden, die den Eindruck erweckt, dass der Betreiber die inhaltliche Verantwortung übernommen hat.
Effiziente Fehlerbehebung⚙️⏱️: Es müssen klare Prozesse und Strukturen etabliert werden, um schnell auf Fehler zu reagieren und diese zu beheben, bevor größerer Schaden entsteht.
Das Urteil hat wegweisenden Charakter 🌟 und könnte zukünftige juristische Entscheidungen zur Haftung für KI-Inhalte maßgeblich beeinflussen. Es zeigt, dass der Einsatz von KI-Systemen nicht nur technischer, sondern auch rechtlicher Sorgfalt bedarf, um Haftungsrisiken zu minimieren🚀📚.