Bin ich ein Hypochonder? Falls die Zahl der Besuche in der Praxis von Doktor Google ein Symptom für diese Störung ist, dann lautet die Antwort Ja. Ich nutze diese Methode der Selbstdiagnose bei passenden und unpassenden Gelegenheiten.
Ich tue das trotz der offensichtlichen Mängel: Typischerweise führt uns die Suchmaschine auf die Websites von Leuten, die uns Arzneien, Operationen oder Sitzungen beim Geistheiler verkaufen wollen. Oder wir geraten auf völlig unverständliche Abhandlungen aus medizinischen Lehrbüchern. Eine weitere häufige Variante: Selbsttests, die bei völlig harmlosen Symptomen die Möglichkeit von Krebs im Endstadium in den Raum stellen.
Es war mir schon länger klar, dass Luft nach oben besteht. 2018 stellte ich die Ada-App vor, die bereits damals mit dem Zauberwort der künstlichen Intelligenz operierte. Ada fragt Symptome ab und zählt anschliessend mit absteigender Wahrscheinlichkeit die infrage kommenden Krankheiten auf. Meine Erfahrungen sind durchwachsen: Ada hilft bei der Entscheidung, ob ich beim Hausarzt vorstellig werden muss oder es zuerst mit Ruhe und den gängigen Hausmittelchen probiere. Aber meine angeborene Neugierde, was die Ursache und Art des körperlichen Defekts betrifft, vermochte diese App nie zu stillen.
Ein «Gamechanger»?
Welche Methode heute zum Zug kommt, ist kein Geheimnis: Natürlich wenden wir uns ChatGPT zu, erzählen dem Chatbot von unseren Gebrechen und dürfen davon ausgehen, dass uns der Befund wortreich erklärt werden wird. Um eine erste Erkenntnis vorwegzunehmen: Als ich das Verfahren neulich ausprobierte, wurde ich deutlich umfangreicher informiert, als ich das von meinem wortkargen Hausarzt gewohnt bin. Das ist ein Plus für Leute, denen es nicht nur darum geht, die Beschwerden zu beseitigen. Die Analyse hilft dabei, Ursachen zu verstehen. Bei wiederkehrenden Vorfällen ergibt sich ein Raum für Vorbeugemassnahmen. Für die besteht im heutigen Medizinbetrieb kaum Zeit, weil jede Zehntelsekunde nach dem Tarmed-Tarifkatalog abgerechnet werden muss.

Um nicht versehentlich zum «Sickfluencer» zu werden, behalte ich die medizinischen Details für mich. Ich darf immerhin mitteilen, dass es sich um einen alltäglichen, dennoch lästigen Zustand handelt, mit dem ich beim Spezialisten war. Entsprechend war es nicht gelogen, als ich meinen Prompt mit dem Hinweis einleitete, dass «mein Hausarzt die Sache abgeklärt und nichts Gravierendes gefunden» habe. Diese Vorrede sollte verhindern, dass mir eine längere Predigt darüber gehalten würde, dass eine KI-Konsultation keinen medizinischen Rat ersetzen kann und darf.
Und nein, ich will keinesfalls empfehlen, derlei Formulierungen für einen AI Jailbreak zu verwenden. Ich halte es für sinnvoll und notwendig, dass die Sprachmodelle nicht auf eine verantwortungslose Weise agieren. Es entsteht ein unvertretbares Risiko, sollten Auskünfte Leute dazu verleiten, der Praxis fernzubleiben, weil sie sich dort nicht wohlfühlen. PS – ich weiss, wovon ich spreche; ich gehöre zur (mutmasslich seltenen) Spezies des Hypochonders mit Ärzte-Allergie.
Die Antwort: erstaunlich erhellend
Jetzt interessiert euch natürlich, wie mein Selbstversuch ausging. Die Antwort lautet: verblüffend gut.
Ich habe mit einer nützlichen Auskunft gerechnet. Die Symptome lassen sich klar beschreiben und ich kann genügend Details für ein deutliches Bild beisteuern. Ausserdem ist die Medizin ein hervorragendes Betätigungsfeld für die künstliche Intelligenz: Es gibt eine riesige Menge an Daten und bei den alltäglichen Gebresten erscheint mir der Homo sapiens unter dem Strich sehr berechenbar zu sein.
Trotz der hohen Erwartungen war die Auskunft plausibler und nützlicher als erhofft. Ich erhielt von ChatGPT eine schlüssige Antwort und holte eine Zweitmeinung bei Claude ein. Diese war ausführlicher, aber etwas weniger konzis. Es gab kleinere Unterschiede bei der Analyse des Sachverhalts, doch bei den Ratschlägen lagen beide Sprachmodelle exakt auf gleicher Linie – als ob sie sich abgesprochen hätten.
Dieses Experiment ist für mich ein Highlight aus dem KI-Jahr 2025. Bei allen Risiken und Problemen, die ich nicht kleinreden will, zeigt es echte Chancen auf: Es hilft uns Patientinnen und Patienten, selbstbestimmt etwas über uns zu lernen. Es gibt das Potenzial für Entlastungen des Gesundheitswesens. Ob die Ärzte diese neue Konkurrenz toll finden, bleibt offen – ihren Kollegen Doktor Google mögen sie bekanntlich nicht sonderlich, aber bei Doktorin KI sehe ich die Chance auf nützliche Vermittlerdienste. Sie könnte Patientinnen und Patienten helfen, komplexe Diagnosen zu verstehen und vernünftige Schlüsse abzuleiten.
Auf einen kurzen Nenner gebracht: ChatGPT vor oder anstelle des Arztbesuchs zu nutzen, scheint mir nicht vernünftig. Aber den Befund mit dem Chatbot zu diskutieren, kann erhellend sein.
Ein lokales Modell für Auskünfte ohne Datenschutzbedenken?
Bleibt ein Aspekt: der Datenschutz. Natürlich – wer bisher sämtliche seine Befunde bei Google eintippte, wird gegenüber ChatGPT keine Skrupel verspüren. Was mich angeht, muss ich deutliche Widerstände überwinden, um mich bei solchen Dingen der KI anzuvertrauen. Deswegen habe ich das Experiment (anders als sonst bei meinen Vergleichstests) nur mit den beiden Modellen abgehalten, für die ich ein Abo habe – in der Hoffnung, dass die Daten der zahlenden Kundinnen besser geschützt sind als die der Gratisnutzer. Natürlich kann man für sensible Anfragen einen Zugang mit Wegwerf-Mailadresse und den gängigen Anonymisierungsmethoden nutzen. Ich würde aber nicht einmal mit diesen Schutzmechanismen bei Gemini oder Deepseek vorstellig werden.
Ich habe etwas Zweites probiert: Mit LM Studio habe ich mir eine Analyse von OpenAIs Open-Source-Modell Gpt-oss-20b geben lassen. Das Resultat ist wiederum bemerkenswert:
- Die Auskunft ist länger und detaillierter als bei Claude und ChatGPT. Sie enthält sogar zwei Tabellen.
- Sie wirkt weniger konzis und schiesst bei manchen Detailaspekten deutlich übers Ziel hinaus. Das wirkt nicht wie die Diagnose einer Ärztin mit zwanzig Jahren Erfahrung, sondern wie die eines Medizinstudenten im zweiten Semester.
- Trotzdem hat sie einen gewissen Nutzen, und die Ratschläge sind weniger zielgerichtet, aber im Kern brauchbar.
Das noch kleinere Modell Lama 3 8B Instruct (via GPT4All ausgeführt) liefert eine noch allgemeinere Antwort, die nicht verkehrt ist, aber kaum einen Mehrwert gegenüber den Treffern bietet, die per Google aufzufinden sind.
Beitragsbild: Ich hoffe, dass mein Röntgenbild nicht der Grund für den ernsten Blick ist (Tima Miroshnichenko, Pexels-Lizenz).