Falsche Infos durch KI: Wer haftet?

Von Frauke StammLesezeit: 4 min24.09.2025
Foto: ein Kind macht seine Hausaufgaben mit einem KI-Chatbot.©portishead1 - iStock

Ernährungsempfehlungen, Reiseplanung oder Anlagetipps: Künstliche Intelligenzen wie ChatGPT, Gemini, LeChat oder DeepSeek werden für unterschiedlichste Zwecke genutzt. Aber was passiert, wenn die KI eine falsche Auskunft gibt? Wer haftet in solchen Fällen?

Das Wichtigste in Kürze:

  • Chatbots können halluzinieren.

  • Falsche Antworten sind möglich.

  • Wer sichergehen will, überprüft die KI-Ergebnisse.

ChatGPT: mehr als 2,5 Milliarden Anfragen täglich

Das KI-Tool ChatGPT erhält täglich mehr als 2,5 Milliarden Anfragen – Tendenz steigend. Es ist ja auch so praktisch: Einfach eine Reiseroute für den nächsten Italien-Trip erstellen lassen oder ein persönliches Sportprogramm zum Abnehmen. Die Einsatzmöglichkeiten sind nahezu unbegrenzt.

Allerdings lohnt es sich, die Antworten der künstlichen Intelligenzen zu überprüfen: So gibt in einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands jede*r dritte KI-Nutzer*in an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern. General Purpose AI, so heißen KI-Produkte, die für verschiedene Zwecke eingesetzt werden können, wie etwa Chatbots – können halluzinieren, also Behauptungen erfinden.

Vergiftung durch falsche Ernährungsempfehlung

Gefährlich kann es werden, wenn die KI beispielsweise falsche Ernährungstipps gibt: Ein 60-jähriger US-Amerikaner hatte sich auf Ernährungsempfehlungen von ChatGPT verlassen – und landete im Krankenhaus.

Die KI schlug dem Mann vor, Kochsalz (Natriumchlorid) durch Bromsalz (Natriumbromid) zu ersetzen. Der Mann überprüfte die Empfehlung nicht und erkrankte an Bromismus, eine Vergiftungserscheinung, die neurologische und psychiatrische Symptomatiken auslösen kann.

Die Ärzt*innen stellten die richtige Diagnose und der Mann konnte das Krankenhaus nach drei Wochen geheilt verlassen.

Kein Visum erforderlich?

Weitaus weniger dramatisch endeten die Reisepläne eines spanischen Pärchens. Vor ihrer Reise nach Puerto Rico fragten sie ChatGPT, ob sie ein Visum benötigten. Die KI antwortete: „Nein“.

Die Antwort ist nicht falsch, da Europäer*innen tatsächlich kein Visum für die Einreise nach Puerto Rico benötigen – aber eine ESTA. Das ist die elektronische Einreisegenehmigung, die auch für die USA erforderlich ist. Das Pärchen durfte den Flug nicht antreten und erklärte in einem Tiktok-Video, dass es ChatGPT nie wieder vertrauen werde.

ChatGPT als Anlageberater

Ein Reporter des Magazins „Stern“ testete das Finanzwissen von ChatGPT-5 und ließ sich von der KI eine Anlagestrategie für 10.000 Euro erstellen. Ihm fiel auf: ChatGPT wird schnell konkret, erwähnt auch Risiken und führt direkt ins Handeln. Die KI bietet beispielsweise an, konkrete Broker-/Bank-Vorschläge zusammenzustellen – Warnungen sind allerdings Fehlanzeige. Während Gemini, die KI von Google, den Hinweis gibt: „Diese Informationen stellen keine Anlageberatung dar und ersetzen keine individuelle Beratung“, fehlt diese Information bei ChatGPT-5. Laut Bankaufsicht Bafin werden die KIs regelmäßig geprüft, bislang aber sei es noch nicht so, dass die KI im rechtlichen Sinne eine Anlageberatung sei.

Wer haftet, wenn die Antwort der KI Schäden verursacht?

Alle Beispiele verdeutlichen: Obwohl KI-Tools praktisch sind, sollten Sie ihre Antworten immer überprüfen. Falls falsche Informationen einer KI zu einem Schaden führen, ist noch nicht ausreichend klar geregelt, wer haftet. Aber das soll sich durch eine EU-Regelung bald ändern.

Eindeutig ist, dass der Hersteller der KI – also zum Beispiel OpenAI bei ChatGPT – haftet, wenn die KI nicht so funktioniert und aussieht, wie versprochen wurde. Oder aber, wenn nicht ausreichende Sicherheitsvorkehrungen getroffen worden sind und es dadurch zu einem Schaden kommt. Das dürfte aber der Ausnahmefall sein.

Für Schäden, die durch ein Produkt entstehen, regelt das Produkthaftungsgesetz, wann Hersteller für fehlerhafte Produkte haften. Künstliche Intelligenz ist allerdings per Definition kein Produkt, so zumindest ist sich die Mehrheit der Jurist*innen einig. Aber was nun?

EU-Regelung soll Haftung für KI vereinfachen

Die Produkthaftungsrichtlinie 2024/285361 der EU vom 18. November 2024 ersetzt die veraltete Richtlinie aus dem Jahr 1985. Die Mitgliedsstaaten sind verpflichtet, die neuen Regeln bis zum 9. Dezember 2026 umzusetzen.

Zu den wichtigen Neuerungen gehört, dass Software dann auch explizit unter das Produkthaftungsgesetz fallen wird. Und: Es soll eine sogenannte Beweislastumkehr gelten. Danach müssen grob gesagt die Hersteller der Produkte – und damit auch der Software – widerlegen, dass die Fehlerhaftigkeit des Produktes nicht ursächlich für den Schaden war. Bislang muss derjenige, der Schäden wegen eines fehlerhaften Produktes einklagt, beweisen, dass der Schaden auf dem Produkt beruht.

Was regelt ChatGPT zur Haftung?

ChatGPT verweist in seinen Nutzungsbedingungen darauf, dass Nutzer*innen sich mit Folgendem einverstanden erklären:

  • Der Output ist möglicherweise nicht immer richtig. Sie sollten sich nicht auf den Output unserer Dienste als alleinige Quelle der Wahrheit oder faktischer Informationen oder als Ersatz für professionelle Beratung verlassen.

  • Sie müssen Output auf Richtigkeit und Angemessenheit für Ihren Anwendungsfall bewerten, einschließlich der angemessenen Überprüfung durch einen Menschen, bevor Sie Output aus den Diensten verwenden oder weitergeben.

Daneben gibt die KI zumindest in ihrer Web-Version an: „ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.“

So prüfen Sie Antworten von ChatGPT und Co.

Ob Sie ChatGPT, Gemini, Perplexity oder eine andere Künstliche Intelligenz nutzen: Es lohnt sich immer zu prüfen, ob die Antworten der KI korrekt sind. Wir haben vier Tipps für Sie zusammengestellt:

  • Fragen Sie nach Quellen: Fordern Sie die KI auf, Ihnen die Quellen aufzulisten, auf denen ihre Antwort basiert. Dann haben Sie Möglichkeit, einzuschätzen, ob die Quellen vertrauenswürdig sind.

  • Lesen Sie die Antworten kritisch gegen: Erscheint Ihnen eine Antwort nicht plausibel? Stellen Sie Nachfragen an die KI.

  • Vergleichen Sie: Gleichen Sie die Antwort der KI mit anderen vertrauenswürdigen Informationen ab.

  • Fragen Sie eine*n menschliche*n Expert*in, bei gesundheitlichen Fragen zum Beispiel Ihren Arzt oder Ihre Ärztin.

Quellen:

t3n, 2,5 Milliarden Anfragen täglich: Warum ChatGPT trotzdem kein Google-Killer ist (abgerufen am 22.08.2025)
TÜV Verband, ChatGPT & Co: Fast jeder dritte KI-Nutzer findet Fehler (abgerufen am 22.08.2025)
Chip, Chatgpt mit Quellenangaben: So geht’s (abgerufen am 22.08.2025)
BR, Faktencheck mit KI? Prüfen Sie die Antwort! (abgerufen am 22.08.2025)

Sonstiges
Frauke Stamm

Frauke Stamm

Als Kommunikations-Expertin mit langjähriger Erfahrung recherchiert sie spannende Rechtsfragen aus dem Alltag und beantwortet diese auf meinrecht.de.

Bleiben Sie informiert

Verpassen Sie keine wichtigen Neuigkeiten und Tipps rund um Ihre Rechte. Melden Sie sich jetzt zu unserem Newsletter an und erhalten Sie regelmäßig aktuelle Informationen, exklusive Ratgeber und praktische rechtliche Tipps – verständlich und auf den Punkt gebracht. Kostenlos und jederzeit kündbar.

Jetzt anmelden und rechtlich informiert bleiben!

Bitte beachten Sie unsere Datenschutzerklärung.

Das könnte Sie auch interessieren