
Google, Microsoft, Meta und Apple sind dabei, die künstliche Intelligenz in ihre Produkte zu integrieren. Sie tun das leider nicht nur, um uns Nutzerinnen und Nutzern einen Gefallen zu tun. Die integrierte KI hat in manchen Fällen zwar unbestritten einen Nutzen, wie sich bei Office demonstrieren lässt.
Trotzdem rührt dieser Integrationswille vor allem daher, dass er den Konzernen einen hervorragenden Grund liefert, die Preise zu erhöhen. Wir User müssen für die KI-angereicherten Produkte nicht nur mehr bezahlen, sondern werden auch abhängiger. Das beweist wiederum Office: Die Textverarbeitung oder Tabellenkalkulation auszutauschen und auf Libre Office oder Airtable umzusatteln, ist zwar kein Vergnügen, aber möglich. Doch wenn wir die eingebaute KI intensiv nutzen, fallen diese Alternativen weg. Zumindest, solange es dort keine vergleichbare Funktion gibt.
Das ginge natürlich auch anders. Statt dass die Konzerne ihre hauseigene KI direkt einbauen, könnten sie Schnittstellen schaffen, über die Nutzerinnen und Nutzer ihr bevorzugtes Sprachmodell einbinden. Hier zwei Beispiele, wie das konkret funktioniert:
- Über ein Plug-in generiert die künstliche Intelligenz in WordPress automatisch Alt-Texte, d. h. Bildbeschreibungen für blinde und sehbehinderte Nutzerinnen und Nutzer.
- Eine Erweiterung in Thunderbird erlaubt es uns, Mails per KI zu beantworten, zu übersetzen oder zu klassifizieren.

Die erste Einsatzmöglichkeit erkläre ich ausführlich in einem separaten Beitrag. An dieser Stelle geht es um die Erweiterung Thunder AI von Mic. Sie stattet das Mailprogramm Thunderbird mit KI-Funktionen aus. Konkret fügt sie in der Symbolleiste des Mailprogramms den Knopf KI hinzu, der die entsprechenden Funktionen zur Verfügung stellt.
Wie es uns gefällt
Auch wenn ich wahrscheinlich Eulen nach Athen trage, möchte ich hier die Vorteile der offenen Anbindung explizit auflisten. Es sind insbesondere diese zwei Aspekte:
- Als User wählen wir selbst, welches Sprachmodell wir einsetzen. Implementiert sind Schnittstellen zu ChatGPT, Google Gemini und Claude von Anthropic. Alternativ benutzen wir via Ollama-API ein lokales Sprachmodell, etwa Deepseek-r1, Qwen 3 oder Llama.
- Die Prompts verwalten wir selbst. Wir dürfen die Standard-Prompts abändern¹ und spezifische Befehle für unsere individuellen Aufgaben ergänzen.
Und so funktioniert es:

- Wir besorgen uns die Erweiterung Thunder AI und installieren sie in Thunderbird.
- Über den Knopf mit den drei waagerechten Strichen gelangen wir zum Hauptmenü, in dem wir den Befehl Add-ons und Themes betätigen.
- In der Liste Erweiterungen klicken wir beim Eintrag ThunderAi auf das Schlüsselsymbol.
- In den Einstellungen ist vor allem der Abschnitt Verbindungstyp wichtig: Hier haben wir sieben Optionen zur Auswahl².
- Je nach Selektion müssen wir die passende Konfiguration für die Verbindung zum LLM eingeben.
- Bei Entwicklernachrichten hinterlegen wir einen Präprompt/Systemprompt, der für alle Aufrufe benutzt wird. Hier können wir z. B. angeben, dass Schweizer Rechtschreibung und Typografie (ss statt ß und «» anstelle gerader Anführungszeichen oder Gänsefüsschen) benutzt werden sollen und wir in Mails Leute konsequent duzen.
Bei Punkt fünf kommt bei mir die Option ChatGPT OpenAI API zum Zug; als Modell wähle ich GPT 41-mini. Damit die es auch liefert, muss ich einen API-Schlüssel eintragen. Diese Schlüssel verwalten wir via platform.openai.com. Es ist sinnvoll, für Thunderbird einen eigenen Schlüssel anzulegen: Das erlaubt uns, die Kosten für die KI-Nutzung einzeln zu kontrollieren.

Bei ChatGPT nach Verbrauch bezahlen – oder ein lokales LLM verwenden
Denn wichtig an dieser Stelle: Die Nutzung per Schnittstelle kostet bei ChatGPT extra. Wir müssen daher ein Guthaben hinterlegen, selbst wenn wir einen Bezahl-Account für ChatGPT haben. Via API bezahlen wir kein Abo, sondern nach Nutzung, wobei wir ein entsprechendes Guthaben hinterlegen können, das entweder automatisch aufgestockt oder halt aufgebraucht wird. Kosten werden pro Token abgerechnet. Das Modell GPT-4.1 mini ist vergleichsweise günstig und kostet für den Output 1,60 US-Dollar für eine Million Token.

Wie viele Tokens wir verwenden, ist unter Usage ersichtlich: Eine simple Antwort kostet um die 2000 Token, d. h. Bruchteile eines Cents. Allerdings stellen wir dennoch fest, dass mit fröhlichen Experimenten schnell der eine oder andere Vierteldollar aufgebraucht wurde. Die Alternative besteht darin, ein eigenes, lokales LLM einzusetzen. Das ist möglich, wenn wir im lokalen Netzwerk einen Server laufen lassen, der eine ChatGPT-kompatible Schnittstelle zur Verfügung stellt. Die hier vorgestellte Software LM Studio ist dazu in der Lage. Wie es in der Praxis funktioniert, teste ich derzeit. Dieses Experiment ist derzeit noch im Gange, sodass ich darüber später Bericht erstatten werde.
Einen eigenen KI-Befehl einrichten
Zur zweiten Stärke dieser Methode: Wie erwähnt erlaubt es uns Thunder AI, eigene Funktionen zu implementieren. Für diesen Zweck klicken wir auf der Add-ons-Verwaltungsseite dieses Plug-ins auf die Schaltfläche Verwalten Sie Ihre Eingabeaufforderungen.

Wir gelangen zu der Liste mit den Prompts für die einzelnen Befehle, die auch den Kontext aufführt und anzeigt, welche Befehle unter welchen Umständen zur Verfügung stehen, z. B. nur, wenn Text markiert ist. Hier wählen wir, ob die Standardprompts aktiv oder deaktiviert sind, und fügen bei Bedarf auch eigene Befehle hinzu. Ich habe einen Befehl eingebaut, um mir eine Sicherheitsbeurteilung für Nachrichten geben zu lassen, die Phishing, Spam oder sonst wie betrügerisch sein könnten. Denn solche ChatGPT und Co. sind ausgezeichnet darin, uns vor Mail-Betrügern zu schützen.
Ein Manko gibt es leider bei der hier beschriebenen Methode via Thunder AI: Wir haben nicht die Möglichkeit, den Quelltext zu übergeben. Dieser viel mehr Rückschlüsse zu als der reine Textinhalt der Nachricht. Dieses Feature besteht bislang nicht – aber ich werde den Entwickler kontaktieren und ihn bitten, es hinzuzufügen.³

Der offene Ansatz gewinnt!
Fazit: Der offene Ansatz ist eine wunderbare Alternative zur Egoismus-Strategie, bei der die künstliche Intelligenz mit den Produkten gebündelt wird. Das heisst: Die Hersteller bauen Schnittstellen ein, über die wir Nutzerinnen und Nutzer das Sprachmodell unserer Wahl hinterlegen. Die Vorteile für uns sind offensichtlich: Wir sind frei, die für unsere Bedürfnisse beste KI zu wählen. Und wir haben auch einen Einfluss darauf, wie viel oder wenig uns das kostet. Das ist Selbstbestimmung, wie sie eigentlich völlig selbstverständlich sein sollte!
Fussnoten
1) Um hier ganz präzise zu sein: Die standardmässig hinterlegten Prompts sind nicht editierbar. Es ist aber möglich, sie zu deaktivieren und stattdessen eine eigene, uns genehme Variante der entsprechenden Funktion zu hinterlegen. ↩
2) Diese Optionen stehen für die Anbindung von Sprachmodellen zur Auswahl:
- ChatGPT OpenAI API
- ChatGPT-Weboberfläche
- ChatGPT OpenAI API
- Google Gemini API
- Anthropic API
- Ollama API (lokales LLM)
- OpenAI-kompatible API ↩
3) Update vom 9. September 2025: Dieses Manko ist inzwischen nicht komplett, aber zu einem grossen Teil ausgeräumt. Wir können in unserem Prompt via Parameter bestimmen, welche Inhalte des Mails an die KI übergeben werden. Zu den verfügbaren Data Placeholders zählen u. a. {%author%} für Absender, {%mail_subject%} für den Betreff und – besonders wichtig für die Sicherheitsbeurteilung – {%mail_html_body%} für den HTML-formatierten Body (auf «Nur Text» wird über {%mail_text_body%} zugegriffen). ↩
Beitragsbild: Denn so sitzt es und passt genau zu uns (Tima Miroshnichenko, Pexels-Lizenz).