Chatbot-Lügen: Gericht verurteilt Schönheitsklinik zu Haftung
Gericht: Betreiber haften für Chatbot-Falschaussagen

Immer mehr Webseiten setzen automatisierte Chatbots ein, um Besuchern bei Fragen zu helfen. Doch was geschieht, wenn diese KI-Roboter falsche Informationen verbreiten? Das Oberlandesgericht Hamm hat nun ein wegweisendes Urteil gefällt: Betreiber eines Chatbots müssen für die Falschaussagen ihrer künstlichen Intelligenz haften.

Der Fall: Schönheitsklinik mit irreführendem Chatbot

Im konkreten Fall wurde eine Schönheitsklinik verurteilt. Deren Chatbot hatte auf der Webseite der Klinik für Kundenanfragen eine Reihe von Facharztbezeichnungen halluziniert. So behauptete der Roboter, die beiden hinter der Klinik-GmbH stehenden Mediziner seien „Fachärzte für plastische und ästhetische Chirurgie“, „Fachärzte für ästhetische Medizin“ und „Fachärzte für ästhetische Behandlungen“. Das Problem: Die beiden letztgenannten Facharzt-Disziplinen existieren gar nicht – und die beiden geschäftsführenden Ärzte sind keine Fachärzte für plastische und ästhetische Chirurgie.

Klage der Verbraucherschützer

Verbraucherschützer mahnten die Klinik deshalb zunächst ab und forderten sie unter anderem zur Unterzeichnung einer strafbewehrten Unterlassungserklärung auf. Zwar wurde der Chatbot in der Folgezeit deaktiviert, die entsprechende Unterlassungserklärung aber nicht unterzeichnet. Daraufhin klagten die Verbraucherschützer auf Unterlassung – und bekamen Recht. Der OLG-Senat stufte die Chatbot-Aussagen als irreführende geschäftliche Handlung ein, die geeignet sei, Verbraucher und andere Marktteilnehmer zu Entscheidungen zu veranlassen, die sie andernfalls nicht getroffen hätten. Selbst wenn die Klinik den Chatbot ausschließlich mit korrekten Datensätzen habe programmieren lassen, trage sie für die unstreitigen Falschangaben betreffend der nicht existenten Facharzttitel ihrer Geschäftsführer die Verantwortung, so die Richter.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Früheres Urteil zu Grok auf X

Bereits Ende 2025 hatte das Landgericht Hamburg in einem ähnlichen Fall entschieden: Betreiber eines Chatbots haften für unwahre oder ehrverletzende Tatsachenbehauptungen der KI, wenn die Falschinformationen auf dem Account eines sozialen Netzwerks dauerhaft und öffentlich abrufbar sind. In dem Fall ging es um den KI-Chatbot Grok auf der Kurznachrichten-Plattform X (ehemals Twitter). Ein Nutzer hatte Grok nach Institutionen gefragt, die stark von staatlicher Förderung abhängen. Die KI generierte daraufhin eine Liste, in der explizit auch ein deutscher Verein genannt wurde. Der Chatbot behauptete fälschlicherweise, dass der Verein hohe Bundesmittel erhalte, und verwies dabei auf angebliche Quellen.

Der Mensch bleibt verantwortlich

Der betroffene Verein klagte auf Unterlassung und bekam Recht. Die Tatsache, dass der fehlerhafte Inhalt von einer Maschine generiert wurde, ändere nichts an der rechtlichen Unzulässigkeit der Darstellung, bemerkten die Hamburger Richter. Der Betreiber müsse sich den Output „zu eigen machen“, da er das System so konfiguriert habe, dass die Ergebnisse ungeprüft direkt veröffentlicht würden. Damit hafte der Betreiber nach den Grundsätzen der Störerhaftung für die Verletzung des Vereinspersönlichkeitsrechts. Die Richter untersagten X, die Behauptung weiterzuverbreiten.

Dieses Urteil zeigt deutlich: Unternehmen können sich nicht hinter der Technologie verstecken. Sie sind für die Inhalte verantwortlich, die ihre Chatbots verbreiten, und müssen sicherstellen, dass diese korrekt und rechtlich einwandfrei sind.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration