Ein älterer Mann mit Brille und Bart passt einem jüngeren Mann in einer grauen Weste die Krawatte an. Im Hintergrund steht eine Schneiderpuppe mit einem beigen Mantel und einer dunklen Krawatte vor einem blauen Vorhang.

Eine massgeschneiderte KI für unsere E-Mail-Korrespondenz

Viel besser als die pfan­nen­fer­ti­gen Lö­sungen von Google, Micro­soft, Apple und Meta: Das Sprach­modell un­serer Wahl so zu in­te­grie­ren, wie es uns am nütz­lichs­ten ist. Wie das geht, zeige ich am Bei­spiel von Thun­der­bird, Thun­der AI und ChatGPT.

Das Bild zeigt einen Screenshot eines Chats mit dem ChatGPT-Assistenten. Der Text im Chat enthält eine Antwort an eine Person namens Herr Föger. Es wird über technische Einschränkungen des Prozessors für ein Windows 11 Upgrade informiert und die Anschaffung eines neuen PCs empfohlen. Unten im Bild sind zwei Schaltflächen zu sehen: «Diese Antwort verwenden» und «Schliessen».
Eine fixfertig formulierte Antwort auf ein reales Mail – die ich so natürlich nicht gesendet habe.

Google, Microsoft, Meta und Apple sind dabei, die künstliche Intelligenz in ihre Produkte zu integrieren. Sie tun das leider nicht nur, um uns Nutzerinnen und Nutzern einen Gefallen zu tun. Die integrierte KI hat in manchen Fällen zwar unbestritten einen Nutzen, wie sich bei Office demonstrieren lässt.

Trotzdem rührt dieser Integrationswille vor allem daher, dass er den Konzernen einen hervorragenden Grund liefert, die Preise zu erhöhen. Wir User müssen für die KI-angereicherten Produkte nicht nur mehr bezahlen, sondern werden auch abhängiger. Das beweist wiederum Office: Die Textverarbeitung oder Tabellenkalkulation auszutauschen und auf Libre Office oder Airtable umzusatteln, ist zwar kein Vergnügen, aber möglich. Doch wenn wir die eingebaute KI intensiv nutzen, fallen diese Alternativen weg. Zumindest, solange es dort keine vergleichbare Funktion gibt.

Das ginge natürlich auch anders. Statt dass die Konzerne ihre hauseigene KI direkt einbauen, könnten sie Schnittstellen schaffen, über die Nutzerinnen und Nutzer ihr bevorzugtes Sprachmodell einbinden. Hier zwei Beispiele, wie das konkret funktioniert:

  1. Über ein Plug-in generiert die künstliche Intelligenz in WordPress automatisch Alt-Texte, d. h. Bildbeschreibungen für blinde und sehbehinderte Nutzerinnen und Nutzer.
  2. Eine Erweiterung in Thunderbird erlaubt es uns, Mails per KI zu beantworten, zu übersetzen oder zu klassifizieren.
Ein Ausschnitt eines Computerbildschirms zeigt die E-Mail-Anwendung Thunderbird im Dunkelmodus. Oben sind Schaltflächen wie «Archivieren», «Junk», «Löschen», ein KI-Icon, sowie ein Dropdown-Menü mit der Aufschrift «Mehr». Das Dropdown-Menü ist geöffnet und zeigt Optionen zur Bearbeitung der Bilder mittels KI.
Die Befehle von Thunder AI, mit der selbst hinzugefügten Sicherheitsbeurteilung.

Die erste Einsatzmöglichkeit erkläre ich ausführlich in einem separaten Beitrag. An dieser Stelle geht es um die Erweiterung Thunder AI von Mic. Sie stattet das Mailprogramm Thunderbird mit KI-Funktionen aus. Konkret fügt sie in der Symbolleiste des Mailprogramms den Knopf KI hinzu, der die entsprechenden Funktionen zur Verfügung stellt.

Wie es uns gefällt

Auch wenn ich wahrscheinlich Eulen nach Athen trage, möchte ich hier die Vorteile der offenen Anbindung explizit auflisten. Es sind insbesondere diese zwei Aspekte:

  1. Als User wählen wir selbst, welches Sprachmodell wir einsetzen. Implementiert sind Schnittstellen zu ChatGPT, Google Gemini und Claude von Anthropic. Alternativ benutzen wir via Ollama-API ein lokales Sprachmodell, etwa Deepseek-r1, Qwen 3 oder Llama.
  2. Die Prompts verwalten wir selbst. Wir dürfen die Standard-Prompts abändern¹ und spezifische Befehle für unsere individuellen Aufgaben ergänzen.

Und so funktioniert es:

Bild zeigt eine Benutzeroberfläche der Software «ThunderAI» mit geöffnetem Menü «Einstellungen». Zu sehen sind diverse Optionen zur Anpassung der Software, wie zum Beispiel die Fenstergrösse, Standard-Spracheinstellungen und API-Verbindungsparameter. Es gibt auch Checkboxen für zusätzliche Optionen.
Die Konfiguration von Thunder AI: Hier wird das LLM ausgewählt und der API-Key hinterlegt.
  1. Wir besorgen uns die Erweiterung Thunder AI und installieren sie in Thunderbird.
  2. Über den Knopf mit den drei waagerechten Strichen gelangen wir zum Hauptmenü, in dem wir den Befehl Add-ons und Themes betätigen.
  3. In der Liste Erweiterungen klicken wir beim Eintrag ThunderAi auf das Schlüsselsymbol.
  4. In den Einstellungen ist vor allem der Abschnitt Verbindungstyp wichtig: Hier haben wir sieben Optionen zur Auswahl².
  5. Je nach Selektion müssen wir die passende Konfiguration für die Verbindung zum LLM eingeben.
  6. Bei Entwicklernachrichten hinterlegen wir einen Präprompt/Systemprompt, der für alle Aufrufe benutzt wird. Hier können wir z. B. angeben, dass Schweizer Rechtschreibung und Typografie (ss statt ß und «» anstelle gerader Anführungszeichen oder Gänsefüsschen) benutzt werden sollen und wir in Mails Leute konsequent duzen.

Bei Punkt fünf kommt bei mir die Option ChatGPT OpenAI API zum Zug; als Modell wähle ich GPT 41-mini. Damit die es auch liefert, muss ich einen API-Schlüssel eintragen. Diese Schlüssel verwalten wir via platform.openai.com. Es ist sinnvoll, für Thunderbird einen eigenen Schlüssel anzulegen: Das erlaubt uns, die Kosten für die KI-Nutzung einzeln zu kontrollieren.

Bildschirmansicht der OpenAI-Plattform mit dem Abschnitt API keys. Zwei API-Schlüssel sind aufgeführt: 'Thunderai Extension' und 'Auto Alt Text'. Beide wurden von Matthias Schüssler erstellt. Es werden Erstellungs- und letzte Verwendungsdaten angezeigt. Funktionen zum Bearbeiten und Löschen der Schlüssel sind verfügbar.
Hier werden die API-Keys für Thunder AI und andere KI-Funktionen eingerichtet.

Bei ChatGPT nach Verbrauch bezahlen – oder ein lokales LLM verwenden

Denn wichtig an dieser Stelle: Die Nutzung per Schnittstelle kostet bei ChatGPT extra. Wir müssen daher ein Guthaben hinterlegen, selbst wenn wir einen Bezahl-Account für ChatGPT haben. Via API bezahlen wir kein Abo, sondern nach Nutzung, wobei wir ein entsprechendes Guthaben hinterlegen können, das entweder automatisch aufgestockt oder halt aufgebraucht wird. Kosten werden pro Token abgerechnet. Das Modell GPT-4.1 mini ist vergleichsweise günstig und kostet für den Output 1,60 US-Dollar für eine Million Token.

Dunkle Benutzeroberfläche mit Statistiken zur API-Nutzung. Oben sind Gesamtausgaben von 0,27 Dollar angezeigt, mit einem Budget von 120 Dollar. Eine violette Balkengrafik zeigt den Anstieg der Ausgaben am 18. Juli. Rechts sind Gesamttokens (90'439).
Die Verwendung der Tokens lässt sich via Backend überwachen.

Wie viele Tokens wir verwenden, ist unter Usage ersichtlich: Eine simple Antwort kostet um die 2000 Token, d. h. Bruchteile eines Cents. Allerdings stellen wir dennoch fest, dass mit fröhlichen Experimenten schnell der eine oder andere Vierteldollar aufgebraucht wurde. Die Alternative besteht darin, ein eigenes, lokales LLM einzusetzen. Das ist möglich, wenn wir im lokalen Netzwerk einen Server laufen lassen, der eine ChatGPT-kompatible Schnittstelle zur Verfügung stellt. Die hier vorgestellte Software LM Studio ist dazu in der Lage. Wie es in der Praxis funktioniert, teste ich derzeit. Dieses Experiment ist derzeit noch im Gange, sodass ich darüber später Bericht erstatten werde.

Einen eigenen KI-Befehl einrichten

Zur zweiten Stärke dieser Methode: Wie erwähnt erlaubt es uns Thunder AI, eigene Funktionen zu implementieren. Für diesen Zweck klicken wir auf der Add-ons-Verwaltungsseite dieses Plug-ins auf die Schaltfläche Verwalten Sie Ihre Eingabeaufforderungen.

Screenshot einer Verwaltungsoberfläche für Eingabeaufforderungen. Mehrere Tabellen mit Spalten für ID, Name, Eingabeaufforderungstext und Eigenschaften sind sichtbar. Jede Zeile weist verschiedene Details zu den Eingabeaufforderungen, wie Namen und spezifische Aktionen, auf. Auf der rechten Seite befinden sich u.a. Optionen zum Bearbeiten.
Die Verwaltung der Prompts in Thunder AI, wo sich eigene Befehle einrichten und administrieren lassen.

Wir gelangen zu der Liste mit den Prompts für die einzelnen Befehle, die auch den Kontext aufführt und anzeigt, welche Befehle unter welchen Umständen zur Verfügung stehen, z. B. nur, wenn Text markiert ist. Hier wählen wir, ob die Standardprompts aktiv oder deaktiviert sind, und fügen bei Bedarf auch eigene Befehle hinzu. Ich habe einen Befehl eingebaut, um mir eine Sicherheitsbeurteilung für Nachrichten geben zu lassen, die Phishing, Spam oder sonst wie betrügerisch sein könnten. Denn solche ChatGPT und Co. sind ausgezeichnet darin, uns vor Mail-Betrügern zu schützen.

Ein Manko gibt es leider bei der hier beschriebenen Methode via Thunder AI: Wir haben nicht die Möglichkeit, den Quelltext zu übergeben. Dieser viel mehr Rückschlüsse zu als der reine Textinhalt der Nachricht. Dieses Feature besteht bislang nicht – aber ich werde den Entwickler kontaktieren und ihn bitten, es hinzuzufügen.³

Screenshot einer vermeintlichen E-Mail von DPD, die im E-Mail-Client Mozilla Thunderbird geöffnet ist. Die Nachricht behauptet, dass ein Paket nicht zugestellt werden konnte und fordert den Empfänger auf, die nächsten Schritte zu bestätigen. Im Hintergrund wird ein Fenster mit Hinweisen zu potenziellen Sicherheitsrisiken.
Die Sicherheitsbeurteilung eines E-Mails, bei dem es sich offensichtlich um Phishing handelt.

Der offene Ansatz gewinnt!

Fazit: Der offene Ansatz ist eine wunderbare Alternative zur Egoismus-Strategie, bei der die künstliche Intelligenz mit den Produkten gebündelt wird. Das heisst: Die Hersteller bauen Schnittstellen ein, über die wir Nutzerinnen und Nutzer das Sprachmodell unserer Wahl hinterlegen. Die Vorteile für uns sind offensichtlich: Wir sind frei, die für unsere Bedürfnisse beste KI zu wählen. Und wir haben auch einen Einfluss darauf, wie viel oder wenig uns das kostet. Das ist Selbstbestimmung, wie sie eigentlich völlig selbstverständlich sein sollte!

Fussnoten

1) Um hier ganz präzise zu sein: Die standardmässig hinterlegten Prompts sind nicht editierbar. Es ist aber möglich, sie zu deaktivieren und stattdessen eine eigene, uns genehme Variante der entsprechenden Funktion zu hinterlegen.

2) Diese Optionen stehen für die Anbindung von Sprachmodellen zur Auswahl:

  • ChatGPT OpenAI API
  • ChatGPT-Weboberfläche
  • ChatGPT OpenAI API
  • Google Gemini API
  • Anthropic API
  • Ollama API (lokales LLM)
  • OpenAI-kompatible API

3) Update vom 9. September 2025: Dieses Manko ist inzwischen nicht komplett, aber zu einem grossen Teil ausgeräumt. Wir können in unserem Prompt via Parameter bestimmen, welche Inhalte des Mails an die KI übergeben werden. Zu den verfügbaren Data Placeholders zählen u. a. {%author%} für Absender, {%mail_subject%} für den Betreff und – besonders wichtig für die Sicherheitsbeurteilung – {%mail_html_body%} für den HTML-formatierten Body (auf «Nur Text» wird über {%mail_text_body%} zugegriffen). 

Beitragsbild: Denn so sitzt es und passt genau zu uns (Tima Miroshnichenko, Pexels-Lizenz).

Kommentar verfassen