OLG Hamm: Chatbot-Betreiber haften voll für KI-Halluzinationen
Chatbot-Betreiber haften für KI-Halluzinationen

Wer einen Chatbot betreibt, muss für Falschangaben seiner Künstlichen Intelligenz (KI) einstehen. Das hat das Oberlandesgericht (OLG) Hamm in einem aktuellen Urteil deutlich gemacht und eine Schönheitsklinik zur Unterlassung bestimmter Facharztbezeichnungen verurteilt. Der KI-Chatbot auf der Webseite der Klinik hatte für Kundenanfragen frei erfundene Titel halluziniert (Az.: 4 UKl 3/25).

Halluzinierte Facharztbezeichnungen

In dem konkreten Fall behauptete der Chatbot auf Anfragen hin, die beiden hinter der Klinik-GmbH stehenden Mediziner seien „Fachärzte für plastische und ästhetische Chirurgie“, „Fachärzte für ästhetische Medizin“ und „Fachärzte für ästhetische Behandlungen“. Das Problem: Die beiden letztgenannten Facharzt-Disziplinen existieren gar nicht, und die beiden geschäftsführenden Ärzte sind keine Fachärzte für plastische und ästhetische Chirurgie.

Verbraucherschützer schritten ein

Verbraucherschützer mahnten die Klinik deshalb zunächst ab und forderten sie unter anderem zur Unterzeichnung einer strafbewährten Unterlassungserklärung auf. Zwar wurde der Chatbot in der Folgezeit deaktiviert, die entsprechende Unterlassungserklärung jedoch nicht unterzeichnet. Daraufhin klagten die Verbraucherschützer auf Unterlassung und bekamen vor dem OLG Hamm Recht.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Irreführende geschäftliche Handlung

Der OLG-Senat stufte die Chatbot-Aussagen als irreführende geschäftliche Handlung ein, die geeignet sei, Verbraucher und andere Marktteilnehmer zu Entscheidungen zu veranlassen, die sie andernfalls nicht getroffen hätten. Selbst wenn die Klinik den Chatbot ausschließlich mit korrekten Datensätzen habe programmieren lassen, trage sie für die unstreitigen Falschangaben betreffend der nicht existenten Facharzttitel ihrer Geschäftsführer die Verantwortung, so die Richter.

Grok-Urteil des LG Hamburg

Bereits Ende 2025 hatte das Landgericht (LG) Hamburg in einem ähnlichen Fall entschieden (Az.: 324 O 461/25). Dort ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X (ehemals Twitter). Ein Nutzer hatte Grok nach Institutionen gefragt, die stark von staatlicher Förderung abhängen. Die KI generierte daraufhin eine Liste, in der explizit auch ein deutscher Verein genannt wurde. Der Chatbot behauptete fälschlicherweise, dass der Verein hohe Bundesmittel erhalte, und verwies dabei auf angebliche Quellen.

Rechtliche Unzulässigkeit bestätigt

Der betroffene Verein klagte auf Unterlassung und bekam Recht. Die Tatsache, dass der fehlerhafte Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung, bemerkten die Hamburger Richter. Der Betreiber müsse sich den Output „zu eigen machen“, da er das System so konfiguriert habe, dass die Ergebnisse ungeprüft direkt veröffentlicht würden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts. Die Richter untersagten X, die Behauptung weiterzuverbreiten.

Diese Urteile verdeutlichen, dass Betreiber von Chatbots für die von ihrer KI generierten Inhalte voll verantwortlich sind und bei Falschinformationen mit rechtlichen Konsequenzen rechnen müssen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration