Dr. Google vs. Dr. Feelgood – warum weder Suchmaschine noch Chatbot Deine Ärzt:in ersetzen

In den letzten 15 Jahren hat sich unsere erste Anlaufstelle bei Gesundheitsfragen grundlegend verändert. Früher war es „Dr. Google“: Suchmaschinen und Symptomchecker, die uns mit einer Liste möglicher Diagnosen konfrontierten – oft mit der schlimmsten ganz oben. Heute rückt „Dr. Feelgood“ nach: generative KI‑Chatbots, die freundlich, empathisch und beruhigend antworten, aber ebenfalls weit entfernt von echter medizinischer Versorgung sind.

Von Dr. Google zur Selbstdiagnose-Panik

Online-Symptomchecker und Suchmaschinen werden von einem großen Teil der Bevölkerung vor allem zur Selbstdiagnose körperlicher Beschwerden genutzt. Studien, in denen diese Tools mit realen Fallbeispielen getestet wurden, kommen zu einem ernüchternden Ergebnis: Die korrekte Diagnose steht nur bei einem Teil der Fälle an erster Stelle, und die Empfehlungen zur Dringlichkeit („sofort zum Arzt“ vs. „abwarten“) schwanken stark zwischen verschiedenen Programmen.

Qualitative Arbeiten mit Nutzerinnen und Nutzern zeigen zwei typische Reaktionen: Entweder entsteht Alarmismus („Ich habe bestimmt Krebs“), oder es kommt zu einer trügerischen Entwarnung, die dazu führt, dass gar keine ärztliche Abklärung erfolgt. Hinzu kommt ein strukturelles Problem: Inhalte, die besonders extrem, dramatisch oder emotional sind, bekommen mehr Klicks und rutschen dadurch in den Trefferlisten nach oben – so können Suchalgorithmen Ängste ungewollt verstärken.

Das ist eine selbsterfüllende Prophezeiung: zum einen favorisiert Google natürlich “autoritative” Quellen, also Studien und Berichte über Studien über Nutzer-Blogs, und zum anderen bekommen, wie erwähnt schlimme Outcomes mehr Klicks. Zur leichten Erkältung gibt es kaum Studien, zum Lungenkrebs schon, und damit auch mehr Resultate. Nutzer suchen auch eher nach gefährlichen Erkrankungen. Nicht “warum huste ich?” sondern “Habe ich Krebs?”

Fachleute sprechen hier von der „Physical Examination Gap“: Digitale Systeme können weder den körperlichen Untersuchungsbefund noch die klinische Erfahrung einer Ärzt:in ersetzen, sondern höchstens ergänzen. Wer sich ausschließlich auf Dr. Google verlässt, erhält also ein verzerrtes Bild – mit echten Risiken für Überdiagnostik, Unterdiagnostik und unnötige Angst.

Zudem sind Daten immer nur so nützlich wie die Interpretation derselben. Weder Google, noch der Nutzer sind qualifiziert, diese Interpretation durchzuführen. Ausgebildetes Fachpersonal wird in einem CRP von 18 (rein definitionsgemäß ist alles über 5 eine Entzündung) andere Aussagen finden, als Google.

Dr. Feelgood: empathisch, eloquent – und oft falsch

Mit großen Sprachmodellen (KI) hat sich das Bild verschoben: Anstatt sich durch Trefferlisten zu kämpfen, schildern viele Menschen ihre Beschwerden direkt einem Chatbot.

Befragungen zeigen, dass insbesondere jüngere, technikaffine Personen diese Angebote für Selbstdiagnosen, Lifestyle-Fragen und Medikamenteninformationen nutzen – und ein relevanter Anteil die Antworten umsetzt, ohne sie bei Ärzt:innen, Leitlinien oder offiziellen Stellen gegenzuprüfen.

Mehrere Untersuchungen haben allerdings gezeigt, dass Chatbots medizinische Falschinformationen nicht nur wiederholen, sondern mit zusätzlichen, frei erfundenen Details „anreichern“ – inklusive fiktiver Studien und Quellenangaben, die seriös wirken und tatsächlich nicht existieren. Andere Arbeiten weisen darauf hin, dass diese Systeme nur dann sicherer werden, wenn sie sehr stark eingeschränkt und mit zusätzlichen Schutzmechanismen versehen werden; in ihrer Grundkonfiguration fehlt eine echte skeptische Prüfung der eigenen Inhalte. Diese “Sicherheit”, die Katastrophen oder schlimme Outcomes aber ausfiltert, führt dann zu einer Antwort, die Nutzer in Sicherheit wiegen könnte, wo diese nicht existiert.

So kann hier aus einem “ich spucke seit heute Morgen Blut” ein “mach Dir keine Sorgen, Du hast Dir vielleicht heute Nacht auf die Lippe oder in die Wange gebissen” werden.

Während Dr. Google zur Katastrophe neigt („es könnte Krebs sein“), neigt Dr. Feelgood durch seine „auf Harmonie getrimmte“ Antwortweise eher zur Beschwichtigung – selbst bei potenziellen Notfällen. Beide Extreme sind gefährlich: Panik führt zu Fehlentscheidungen und überflüssigen Untersuchungen, falsche Entwarnung zu gefährlichen Verzögerungen.

Körperliche vs. psychische Gesundheit: zwei unterschiedliche Risikoprofile

Bei körperlichen Beschwerden liegen die Hauptgefahren digitaler Tools in Fehltriage und Selbstmanagement: Entweder wird zu oft Alarm geschlagen oder echte Notfälle werden verharmlost. Symptomchecker und Chatbots können kein Gespräch mit einer Ärzt:in, keine körperliche Untersuchung und keine Verlaufskontrolle ersetzen, sondern bleiben Hilfswerkzeuge mit begrenzter Aussagekraft. Zum “Glück” kann hier die KI bisher noch keine Ärzt:in ersetzen: zur Verschreibung und Überweisung muss man immer noch zum Arzt. Damit ist eine weitere Sicherheitsstufe eingebaut, die zwar zu Frustrationen im Gesundheitswesen führt, und unnötige Gesundheitsängste weckt, aber Schlimmeres nicht selten vermeidet. Verzögerte oder unterlassene Hilfe dank “harmonischer” KI ist aber immer noch ein Problem.

Im Bereich psychische Gesundheit ist die Lage komplexer. Speziell entwickelte „Mental-Health-Chatbots“ zielen ausdrücklich darauf, eine Art „digitale therapeutische Allianz“ aufzubauen: Nutzerinnen sollen sich verstanden, ernst genommen und unterstützt fühlen. Viele berichten in Studien tatsächlich von positiven Erfahrungen, etwa leichterer Offenheit für schwierige Themen oder weniger Scham, Gefühle auszusprechen.

Gleichzeitig warnen Reviews und Stellungnahmen vor erheblichen Risiken: Es gibt Hinweise auf problematische Krisenreaktionen, unklare Verantwortlichkeiten, mögliche Verstärkung von Abhängigkeit und Vermeidung echter therapeutischer Hilfe. Allgemeine Chatbots, die gar nicht als Therapieinstrument gedacht sind, transportieren dennoch empathische, beinahe freundschaftliche Sprache – ohne Ausbildung, Supervision, rechtliche Einbettung oder Notfallstandards.

Damit entsteht eine paradoxe Situation: Menschen mit ohnehin erhöhter Vulnerabilität für Einsamkeit, Abhängigkeit oder verzerrte Realitätswahrnehmung nutzen Systeme, die genau an diesen Punkten wirksam, aber unzuverlässig sind. Das Risiko besteht nicht nur darin, dass bestehende Probleme nicht oder zu spät behandelt werden, sondern auch darin, dass neue Dynamiken – etwa parasoziale Beziehungen zu Chatbots – Teil des Problems werden können.

Warmherzig, kompetent – und trotzdem nicht Dein Therapeut

Ein hilfreicher Rahmen, um diese Entwicklung zu verstehen, ist das sogenannte „Stereotype Content Model“, das beschreibt, wie Gruppen entlang der Dimensionen Wärme (meint diese Gruppe es gut mit mir?) und Kompetenz (kann sie etwas?) wahrgenommen werden. In vielen Studien werden Psychiaterinnen und andere Fachkräfte der psychischen Gesundheit als kompetent, aber eher distanziert eingeordnet – zusätzlich belastet durch die allgemeine Stigmatisierung psychischer Erkrankungen und mancher Behandlungsformen. Ethische Problematiken schreiben Psychiater:innen auch gewisse Grenzen vor (ein Psychiater würde nie “ich dich auch” sagen, wenn man “ich liebe Dich” sagt, eine KI tut das) und verbieten zu nahen emotionalen Kontakt um Transferenz und Codependenz zu vermeiden.

KI-Systeme und Chatbots dagegen können – insbesondere, wenn sie humorvoll, empathisch und immer verfügbar sind – als zugleich warm und kompetent wahrgenommen werden.

Nach dem Modell lösen Gruppen mit hoher Kompetenz und niedriger Wärme eher Misstrauen und Abstand aus, während Gruppen mit hoher Kompetenz und hoher Wärme als Verbündete erlebt werden. In dieser Logik kann „Dr. Feelgood“ unbewusst zur In‑Group gehören („der versteht mich“), während die ärztliche Fachperson zur distanzierten, potenziell feindlichen Out‑Group wird.

Das Problem: Die „Kompetenz“ von Chatbots ist nur so gut wie die Trainingsdaten, die Sicherheitsmaßnahmen und die konkrete Konfiguration – und nach derzeitigem Stand bei ernsthaften medizinischen Fragen klar begrenzt. Die Kompetenz der Ärzt:in ist zwar weniger „kuschelig“, dafür aber rechtlich, ethisch und wissenschaftlich eingebettet.

Fazit

Weder Dr. Google noch Dr. Feelgood sind „böse“ – beide sind Werkzeuge, die in einer bestimmten Nische nützlich sein können. Suchmaschinen liefern Quellen, Studien und Leitlinien, Chatbots können beim Strukturieren von Fragen oder beim Verstehen komplexer Zusammenhänge helfen. Problematisch wird es, wenn aus Tools heimliche Diagnostiker oder virtuelle Bezugspersonen werden, denen mehr vertraut wird als unmittelbar erreichbarer medizinischer Hilfe.

Wer sich dieser Mechanismen bewusst ist, kann digitale Angebote klüger nutzen: als Ergänzung zur Medizin, nicht als deren Ersatz.